您的位置:首页 >精选知识 >

深度AI模型无法捕捉人类形状感知的配置性质

约克大学今天发表的一项研究的合著者詹姆斯·埃尔德教授说,深度卷积神经网络(DCNN)不像人类那样看待物体——使用配置形状感知——这在现实世界的人工智能应用中可能是危险的。

发表在CellPress杂志iScience上的深度学习模型未能捕捉到人体形状感知的配置本质是由Elder进行的一项合作研究,Elder担任约克人类和计算机视觉研究主席,并且是约克人工智能中心的联合主任芝加哥洛约拉学院社会学和心理学助理教授尼古拉斯·贝克,前约克大学VISTA博士后研究员。

该研究采用称为“弗兰肯斯坦”的新型视觉刺激来探索人脑和DCNN如何处理整体的、可配置的对象属性。

“科学怪人只是被拆开并以错误方式重新组合在一起的物体,”埃尔德说。“因此,它们具有所有正确的地方特征,但在错误的地方。”

研究人员发现,虽然人类视觉系统被科学怪人混淆了,但DCNN却没有——这表明它对配置对象属性不敏感。

我们的结果解释了为什么深度AI模型在某些条件下会失败,并指出需要考虑物体识别之外的任务,以便理解大脑中的视觉处理。这些深度模型在解决复杂的识别任务时往往会走“捷径”。虽然这些捷径可能在许多情况下都有效,但在我们目前与行业和政府合作伙伴合作的一些现实世界人工智能应用程序中,它们可能是危险的。”

睛,”Elder解释说。“大脑需要正确地对这些碎片进行分组,以识别物体的正确类别和位置。一个只能单独感知碎片的交通安全监控人工智能系统将无法完成这项任务,这可能会误解易受伤害的道路使用者的风险。"

根据研究人员的说法,旨在使网络更像大脑的训练和架构的修改并没有导致配置处理,并且没有一个网络能够准确地预测逐次试验的人类对象判断。“我们推测,为了匹配人类的配置敏感性,必须训练网络来解决类别识别之外的更广泛的对象任务,”Elder指出。

免责声明:本文由用户上传,如有侵权请联系删除!