您的位置:首页 >科技 >

科技行业必须避免意外后果

Telstra集团技术,创新和战略部门负责人斯蒂芬·埃洛普表示,破坏之路是由意外后果造成的,科技行业需要确保机器学习和人工智能(AI)应用程序免受无意识偏见和安全与信任的破坏。

埃洛普周四在墨尔本举行的年度Telstra Vantage会议上表示,在自动化和人工智能的兴起中,唯一能够应对关怀,创造和监督的角色。

根据埃洛普的说法,他在去年加入Telstra团队之前担任诺基亚首席执行官,此前电信公司创建了新的创新角色,负责领导其首席技术官,首席科学家,软件集团和企业战略 - 而AI机器学习从数据输入到他们的系统,这些数据受到无意识偏见的人的污染。

“人工智能的核心是大数据,可以从高级数据分析中获得的见解......我们如何使用数据,以及我们选择的数据来训练我们的机器可以对我们的分析产生深远的影响,”埃洛普说过。

因此,人类开发人员精心挑选的数据 - 例如,最近发现女性不太可能向高薪工作展示Google广告,某些面部识别软件难以跟踪较暗的肤色,以及正被建议在低社会经济社区寻找 - 因此,人们通过人工智能继续存在歧视。

“即使我们依赖所谓的大数据和现代技术,歧视的社会历史也可以在我们的数字平台中依赖于系统所学习的数据和已经设计的算法,”他解释。

埃洛普还指出了一个案例,其中一个人工智能机器人被互联网上的用户有意识地转移:微软在Twitter上的Tay聊天机器人,从故意的推文中了解种族主义行为。

因此,人工智能和物联网(IoT)的兴起必须同时处理他所谓的“推特巨魔”和无意识的开发者偏见,如果社会的数字化将避免不仅加剧歧视,而且还会破坏无意识的后果Elop说,所有用户的隐私和信任。

“随着Telstra推出可能是该国最大的连续物联网网络,承诺从更好的能源管理到安全保障,到现场效率,到矿山,到自动驾驶,所有这些都与大数据,毫无疑问,物联网将对我们向客户提供的结果产生深远的影响,“他说。

“隐私泄露很快就会成为所有这些基于云的数据的意外后果。”

他说,收集如此大量的数据,用于机器学习和为和智能城市设计的人工智能设备,有可能被不良行为者滥用,特别是如果来自多个来源的数据合并在一起。

“大量数据的收集会导致隐私领域出现各种意外后果,而这些隐私风险会随着大数据的增加而增加 - 不仅是主要数据本身,还有可以通过组合收集的新推论来自不同来源的大数据,“他解释道。

“例如,将来自越来越受欢迎的牌照读者的数据与城市中的模式进行混搭 - 可以从中收集各种有趣的信息。”

其中一个例子是亚马逊的Alexa,它可以保存所有人类互动,以便学习并成为其所有者更聪明,更有用的AI助手 - 但无意间的后果可能是这些数据被滥用,他建议。

埃罗普说:“这台设备在云中记录并存储了我所说过的所有内容,并实际记录了我的声音,录音开始前几秒钟,我甚至要求它开始收听。”

“这些录音用于非预期目的只是时间问题。”

最重要的是,埃洛普说,当开发人员无法确保系统免受违反信任的意外后果时。

埃洛普指出最近发生的Equifax违规行为表示,违反此类高度个人信息以及公司对此事件的回应都是对他的隐私和信任的“根本违反”,并且事后不能简单地修复。

他补充说,人们也开始质疑他们可以相信哪些信息,这是由于技术的进步,社会信任崩溃的另一个迹象。

“你能相信什么?你相信你在互联网上读到的东西吗?你是否相信你在互联网上看到的东西,如果它与你的观点一致?你是否相信你在互联网上读到的东西,如果它被世界发推文领导者?如果设备有预编程的后门,您是否相信设备?您是否相信您客厅中的相机可能是650Gbps拒绝服务攻击的一部分,或者有人可能会秘密使用它监视你?“ 他问。

“当安全性破裂,或委托施加安全措施的人员失去其职责,或者普通公民不能再从虚构中说出真相时,我们就会产生信任问题。

“未能保护我们的世界的意外后果是对社会信任的破坏 - 信任是社会本身的基础。”

根据埃洛普的说法,企业可以防范违反信任和歧视的意外后果的唯一方法是展示他提到的三种角色的主要特征:人工智能:关怀,创造力和领导能力。

最重要的是,开发和部署数据收集机器和服务的人必须采用意向性。

“我们不能接受我们的努力给我们的客户和我们的底线所带来的诸多好处,而不会对所产生的全部后果负责,”他说。

“只有通过有意识的努力才能克服无意识的偏见。而且,正如我们在Telstra学到的那样,隐私相关的风险无法通过抽象的政策声明和白皮书或实验来完全解决。每一个新的产品和服务都是必须在隐私和意外后果方面仔细评估您的数据使用情况。“

免责声明:本文由用户上传,如有侵权请联系删除!