由1,000多名人工智能研究人员,学者和专家组成的集体针对即将发表的使用神经网络“预测犯罪”的研究主张大声疾呼。在撰写本文时,Facebook,谷歌和微软等公司的50多名从事AI工作的员工已经签署了一封公开信,反对这项研究,并恳请出版商重新考虑。
有争议的研究将在《自然》(Nature)的出版商Springer即将出版的书集中突出显示。它的作者提出了令人震惊的声称,他们的自动面部识别软件可以预测某个人是否会成为犯罪分子,理由是这种工作在执法应用中用于预测性警务的效用。
哈里斯堡大学教授兼合著者纳撒尼尔·JS·阿什比(Nathaniel JS Ashby)表示:“通过无偏见地自动识别潜在威胁,我们的目标是为预防犯罪,执法和军事应用提供受隐性偏见和情感反应影响较小的工具,” 。
该研究的其他作者包括哈里斯堡大学助理教授Roozbeh Sadeghian和博士学位的Jonathan W. Korn。该学生在新闻稿中被强调为纽约警察局的资深人士。Korn称赞能够预测犯罪为“执法机构的一项重大优势”的软件。
在反对该研究出版物的公开信中,AI专家对该研究表示“严重关切”,并敦促Springer的审查委员会撤回其提议。这封信还呼吁其他出版商拒绝发表类似的未来研究,理由是为什么必须极其谨慎地使用面部识别和犯罪预测技术,而不是对已经脆弱的社区加以利用,这是一连串的原因。

该刊物的反对者不仅担心研究人员打开了道德的蠕虫罐头,而且还对研究本身产生了怀疑,批评“不合理的科学前提,研究和方法,横跨我们各个学科的许多研究都将其视为臭名昭著。年份。”
长期以来, 人们一直 批评人脸识别算法在识别非白人面孔方面的性能不佳,以及对此软件经常提出的许多其他科学和道德关注。鉴于有问题的研究开发了可用于预测性警务目的的面部识别软件,因此该技术的利益再高不过了。
“机器学习计划不是中立的;这封信的作者警告说,“研究议程和与之合作的数据集通常会继承关于世界的主流文化信仰。”
“不加批判地接受默认假设不可避免地导致算法系统中的歧视性设计,重现使社会等级制度规范化并使针对边缘化群体的暴力合法化的想法。”