返回顶部
首页
时尚 | 生活 | 工具 | 诗词 |
您现在的位置:
首页 市场技术 详细信息
AI研究人员以种族偏见和有缺陷的方法为由谴责预测犯罪软件
2020-06-24    阅读量:30703    新闻来源:互联网     |  投稿

由1,000多名人工智能研究人员,学者和专家组成的集体针对即将发表的使用神经网络“预测犯罪”的研究主张大声疾呼。在撰写本文时,Facebook,谷歌和微软等公司的50多名从事AI工作的员工已经签署了一封公开信,反对这项研究,并恳请出版商重新考虑。


有争议的研究将在《自然》(Nature)的出版商Springer即将出版的书集中突出显示。它的作者提出了令人震惊的声称,他们的自动面部识别软件可以预测某个人是否会成为犯罪分子,理由是这种工作在执法应用中用于预测性警务的效用。


哈里斯堡大学教授兼合著者纳撒尼尔·JS·阿什比(Nathaniel JS Ashby)表示:“通过无偏见地自动识别潜在威胁,我们的目标是为预防犯罪,执法和军事应用提供受隐性偏见和情感反应影响较小的工具,” 。


该研究的其他作者包括哈里斯堡大学助理教授Roozbeh Sadeghian和博士学位的Jonathan W. Korn。该学生在新闻稿中被强调为纽约警察局的资深人士。Korn称赞能够预测犯罪为“执法机构的一项重大优势”的软件。


在反对该研究出版物的公开信中,AI专家对该研究表示“严重关切”,并敦促Springer的审查委员会撤回其提议。这封信还呼吁其他出版商拒绝发表类似的未来研究,理由是为什么必须极其谨慎地使用面部识别和犯罪预测技术,而不是对已经脆弱的社区加以利用,这是一连串的原因。

AI研究人员以种族偏见和有缺陷的方法为由谴责预测犯罪软件 中网时尚,stylechina.com

该刊物的反对者不仅担心研究人员打开了道德的蠕虫罐头,而且还对研究本身产生了怀疑,批评“不合理的科学前提,研究和方法,横跨我们各个学科的许多研究都将其视为臭名昭著。年份。”


长期以来, 人们一直 批评人脸识别算法在识别非白人面孔方面的性能不佳,以及对此软件经常提出的许多其他科学和道德关注。鉴于有问题的研究开发了可用于预测性警务目的的面部识别软件,因此该技术的利益再高不过了。


“机器学习计划不是中立的;这封信的作者警告说,“研究议程和与之合作的数据集通常会继承关于世界的主流文化信仰。”


“不加批判地接受默认假设不可避免地导致算法系统中的歧视性设计,重现使社会等级制度规范化并使针对边缘化群体的暴力合法化的想法。”



标签:
免责声明:本文仅代表作者本人观点,与中网风格,stylechina.com无关。本网对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。客服邮箱:23341571@qq.com | 客服QQ:23341571
全站地图 | 二级目录 | 上链请联系业务QQ:23341571 或 业务微信:kevinhouitpro