您的位置:首页 >要闻 >

Facebook正在使用更多的人工智能来检测仇恨言论

Facebook首席技术官Mike Schroepfer今天告诉记者,在2020年第一季度,Facebook上发布的960万条内容因违反公司仇恨言论政策而被删除,这是“一段时间内最大的收益”。至于背景,就在四年前,Facebook还没有删除任何有关人工智能的内容。这些数据来自Facebook的社区标准执行报告(CSER),该报告称,人工智能检测到Facebook在2020年第一季度删除的仇恨言论内容占88.8%,高于上一季度的80.2%。Schroepfer将这种增长归功于XLM等语言模型的进步。另一个潜在因素是:由于,Facebook也将一些人工版主请回家,不过Schroepfer说Facebook版主现在可以在家做一些工作了。

“我不幼稚;人工智能并不是所有问题的答案。”“我认为人类将在无限的未来参与其中。我认为这些问题本质上是关于生活和沟通的人类问题,所以我们希望人类能够控制和做出最终的决定,尤其是当这些问题很微妙的时候。但我们可以用人工智能做的是,你知道,把普通的任务,数十亿规模的任务,单调乏味的工作去掉。”

脸书人工智能研究今天也发布了从脸书公共群组中收集的10000个恶意表情包的数据集可恶的模因挑战将为表现最好的网络提供10万美元的奖金,并在12月的领先机器学习大会NeurIPS上举办决赛。在NeurIPS举办的仇恨表情包活动之前,脸书于2019年在NeurIPS举办了深度伪造检测挑战。

仇恨模因数据集用于评估消除仇恨言论的模型的性能,并对多模态学习模型进行微调和测试,该模型从多种形式的媒体输入,以衡量多模态理解和推理。这篇论文包括了一系列的伯特衍生的单模态和多模态模型的性能文件。最精确的人工智能驱动的多模态模型——Visual BERT COCO——的准确率达到了64.7%,而人类在数据集上的准确率达到了85%,反映了挑战的难度。

由外部注释者(不包括Facebook版主)组成的团队,数据集中最常见的模因以种族、民族或性别为目标。模因被归类为将人与动物相比较,引用负面的刻板印象,或使用嘲弄性的仇恨言论——Facebook社区标准认为这是一种仇恨言论——在数据集中也很常见。

Facebook今天还分享了更多关于它如何使用人工智能来打击错误信息和阻止商家在平台上欺诈的信息。Facebook多年来一直在开发SimSearchNet,它是一个卷积神经网络,用于识别重复的内容,它被世界各地数十家独立的人类事实核查组织用来对那些被认为不可信的内容贴上警告标签。4月份有5000万篇帖子贴出了警告标签。令人鼓舞的是,Facebook用户平均只有5%的时间会点击带有警告标签的内容。计算机视觉还被用于自动检测和拒绝检测工具、医用口罩和Facebook不允许在其平台上发布的其他产品的广告。

像谷歌人工智能首席执行官杰夫·迪恩(Jeff Dean)这样的机器学习专家称,多模态模型的进步是2020年的一种趋势。事实上,多模态学习已经被用来做一些事情,比如自动评论视频和标题图片。像MIT-IBM Watson实验室的cleveland这样的多模态系统也在应用NLP和计算机视觉来提高人工智能系统进行精确视觉推理的能力。

被排除在数据集之外的是呼吁暴力、自残、裸体或鼓励恐怖主义或贩卖人口的模因。

这些表情包是使用自定义工具制作的,文本是从脸书公共群组的表情包图片中提取的。为了克服模因常见的授权问题,Getty Images API照片被用来替换背景图像并创建新的模因。注释者需要验证每一个新的模因是否保留了原模因的含义和意图。

可恶的模因数据集通过脸书所谓的“良性混淆物”或“模因”来学习,这些模因的意义会根据模因文本背后不断变化的图片而发生变化。

仇恨言论是一个重要的社会问题,解决它需要改进现代机器学习系统的能力。检测在模因仇恨言论需要推理对微妙的线索,和任务是构造单峰模型很难,包括“良性的混杂因素”,翻转multimodal可恨的meme的标签,“Facebook AI研究合著者说的一篇论文中,详细的可恶的文化基因数据集与地方共享。

视觉推理的进化,比如可恶的模因数据集和挑战所寻求的那种,可以帮助人工智能更好地检测仇恨言论,并确定模因是否违反了Facebook的政策。准确的多模态系统也可能意味着Facebook避免参与反言论,当人类或人工智能版主无意中审查来自公开反对仇恨言论的活动人士的内容,而不是实际的仇恨言论。

从互联网上删除仇恨言论是正确的做法,但快速检测仇恨言论也符合Facebook的经济利益。监管机构多年来一直敦促Facebook采取更严格的措施,德国议员通过了一项法律,要求用户超过100万的社交媒体公司迅速删除仇恨言论,否则将面临最高5000万欧元的罚款。

免责声明:本文由用户上传,如有侵权请联系删除!