返回顶部
返回首页
返回首页
home 您现在的位置: 首页 >数码 > 详细信息
Facebook升级了AI,以更好地解决COVID-19错误信息和仇恨言论
2020年05月13日    阅读量:545     新闻来源:中国风格网 stylechina.com    |  投稿

Facebook升级了AI,以更好地解决COVID-19错误信息和仇恨言论 ,stylechina.com

Facebook的 AI工具是其用户与平台所遭受的仇恨和错误信息的猛烈冲击之间唯一存在的东西。该公司的研究人员已经为阻止敌人攻击的系统开发了一些新功能,识别出与COVID-19相关的错误信息和伪装成模因的可憎言论。


目前,检测和消除与该病毒有关的错误信息显然是当务之急,因为Facebook和其他社交媒体不仅成为普通的猜测和讨论的温床,而且还受到旨在煽动不和和传播伪科学的有组织运动的恶意干扰stylechina.com


Facebook首席技术官Mike Schroepfer在今天早些时候的新闻发布会上说:“由于COVID-19,我们在整个网站上的行为发生了巨大变化,错误信息的大量增加被我们认为是危险的。”


该公司与世界各地的数十个事实检查组织签有合同,但是-撇开了协作真正有效的问题-虚假信息可以快速变异,甚至破坏单个图像或链接复杂事务。


例如,看下面的三个示例图像:在某些方面,它们几乎是相同的,具有相同的背景图像,颜色,字体等。但是第二个稍有不同-当有人拍摄屏幕快照并共享而不是原始屏幕快照时,您可能会看到这种情况。第三个在视觉上是相同的,但单词的含义相反。


不复杂的计算机视觉算法将由于这些微小的变化(它们导致不同的哈希值)而将这些图像评为完全不同的图像,或者由于压倒性的视觉相似性而将它们全部视为相同。当然,我们马上就可以看到差异,但是训练算法来可靠地做到这一点非常困难。而事情在Facebook上的传播方式,最终可能会带来数千种变化,而不是少数变化。


施罗普弗说:“我们希望能够做的就是将这些事物检测为相同的,因为它们对于一个人而言是相同的。” “我们以前的系统非常精确,但是即使很小的变化,它们也非常脆弱和脆弱。如果您更改少量像素,我们会非常担心它与众不同,因此我们将其标记为不同而不会删除。在过去的两年半中,我们在这里所做的是建立了一个基于神经网络的相似度检测器,它使我们能够以非常高的精度更好地捕获更多的这些变体。”


幸运的是,以这些比例分析图像是Facebook的专长。那里的基础设施用于比较照片和搜索诸如面部和不太理想的事物之类的特征;它只需要被教导寻找什么。可以说,经过多年的工作,结果就是SimSearchNet,该系统致力于通过仔细检查给定图像的最显着特征来查找和分析给定图像的近重复项(这可能根本不是您或我所要的)。注意)。


SimSearchNet当前正在检查上传到Instagram和Facebook的每张图片-每天数十亿。


该系统还监视着Facebook Marketplace,试图规避规则的人们将上传相同的待售商品图像(例如N95口罩),但对其进行了略微编辑,以避免被系统标记为不允许。使用新系统,将记录重新着色或以其他方式编辑的照片之间的相似之处,并停止销售。


可恶的模因和模棱两可的臭鼬

Facebook一直在处理的另一个问题是仇恨言论,以及其定义较为宽松的同级仇恨言论。然而,模因已经被证明对自动化系统来说特别困难。


问题在于这些帖子的含义通常是图像和文本之间相互作用的结果。单词本身完全合适或含糊不清,其含义已通过其出现的图像阐明。不仅如此,图像或短语中还存在无数种变化,可以巧妙地改变(或不改变)结果的含义。见下文:



要明确的是,这些都是经过简化的“平均模因”,而不是在Facebook上经常发现的那种真正可恨的模因。



在某些情况下,侮辱的每个部分都是好的。机器学习系统如何学会分辨好与坏?由于AI的工作方式,这种“多模式仇恨言论”是一个不小的问题。我们已经建立了可以理解语言和对图像进行分类的系统,但是这两件事之间的联系并不是一个简单的问题。


Facebook研究人员指出,对该主题的研究“令人惊讶地很少”,因此他们的研究更多是探索性任务,而不是解决方案。他们达到的技术有几个步骤。首先,他们让人类将大量的模因类型图像注释为可恨与否,从而创建了可恨的模因数据集。接下来,对机器学习系统进行了有关此数据的培训,但与现有数据有很大的不同。


当同时显示文本和图像时,几乎所有此类图像分析算法都会对其中一种进行分类,然后对另一种进行分类,然后尝试将两者进行关联。但这具有上述缺点,即与上下文无关,可恨模因的文本和图像可能是完全良性的。


Facebook的系统将管道中较早的文字和图像信息进行组合,即所谓的“早期融合”,以区别于传统的“后期融合”方法。这更类似于人们的行为方式-在评估媒体的含义或基调之前先查看其所有组成部分。


目前,生成的算法还没有准备好大规模部署,总体精度约为65-70%,尽管Schroepfer警告说,该团队使用“最棘手的难题”来评估功效。某些多模式仇恨言论如此微不足道,而有些则甚至是人类难以估量的。


为了促进艺术发展,Facebook在今年晚些时候的NeurIPS AI会议中举办了“仇恨模因挑战赛”。这通常是用困难的机器学习任务完成的,因为像这样的新问题就像研究人员的猫薄荷一样。


人工智能在Facebook政策中的角色转变

在COVID-19危机初期,Facebook宣布了其计划更多地依赖AI进行节制。马克·扎克伯格(Mark Zuckerberg)在3月的新闻发布会上表示,该公司预计将有更多“误报”(在不应该显示的情况下标记内容的实例),该公司拥有15,000名缓和承包商,在家中休带薪假。


YouTube和Twitter也在同一时间将更多的内容审核转移到了AI,发出类似的警告,说明对自动化审核的依赖可能会导致内容并未真正被错误地标记为错误的平台规则。


尽管进行了AI努力,Facebook仍渴望将其人类内容审阅者重新带回办公室。4月中旬,扎克伯格给出了一个时间表,指出了何时可以期望员工返回办公室,并指出内容审核员在Facebook的“关键雇员”名单中名列前茅,是最早回国的标志。


尽管Facebook警告称其人工智能系统可能会过分删除内容,但随着冠状病毒危机的蔓延,仇恨言论,暴力威胁和错误信息继续在平台上扩散。Facebook最近因散播病毒视频而受到抨击,该视频劝阻人们不要戴口罩或在可获得疫苗后寻求疫苗,这明显违反了该平台针对健康错误信息的规定。


该视频摘自即将出版的伪纪录片《 Plandemic》的摘录,最初在YouTube上播出,但研究人员发现,Facebook 蓬勃发展的阴谋团体生态系统在平台上广泛共享该视频,并将其注入主流在线讨论中。长达26分钟的视频中充斥着阴谋,这也是算法难以理解的内容类型的完美示例。


周二,Facebook还发布了一项社区标准执行报告,其中详细说明了其在恐怖主义,骚扰和仇恨言论等类别中的适度努力。虽然结果仅包括大流行期间的一个月时间,但我们可以期望在下一次看到Facebook转向AI适度带来的更多影响。


扎克伯格在谈到公司的审核工作时指出,这种流行病使审核的“人类审核部分”变得更加困难,因为对保护用户隐私和员工心理健康的担忧使远程工作对审核人员构成挑战,但该公司正在导航。Facebook向TechCrunch证实,该公司现在允许一小部分专职内容审核员自愿返回办公室,而且据诚信部Facebook副总裁Guy Rosen称,现在“大部分”合同内容审核员可以在家里工作。罗森说:“人类将继续成为方程式的重要组成部分。”


标签:媒体传播今日头条技术发展数码
免责声明: 本文仅代表作者本人观点,与中国风格网无关。本网对文中陈述、观点判断保持中立,不对所包含内容的准确性、可靠性或完整性提供任何明示或暗示的保证。请读者仅作参考,并请自行承担全部责任。本网转载自其它媒体的信息,转载目的在于传递更多信息,并不代表本网赞同其观点和对其真实性负责。如因作品内容、版权和其它问题需要同本网联系的,请在一周内进行,以便我们及时处理。邮箱:service@cnso360.com

全站地图

深圳网络警察报警平台 深圳网络警
察报警平台

公共信息安全网络监察 公共信息安
全网络监察

经营性网站备案信息 经营性网站
备案信息

中国互联网举报中心 中国互联网
举报中心

中国文明网传播文明 中国文明网
传播文明

深圳市市场监督管理局企业主体身份公示 工商网监
电子标识