首页 >> 生活 >

人工智能专家权衡聊天机器人的兴起

2023-03-20 14:47:53 来源: 用户: 

如果聊天机器人成为朋友怎么办?如果一个聊天机器人扩展了对另一个人的亲密感觉会怎样?聊天机器人如果被恶意使用,会对社会构成真正的威胁吗?计算机科学与软件工程助理教授SantuKarmaker深入探讨了以下主题。

这些与聊天机器人的奇怪遭遇揭示了AI的未来是什么?

Karmaker:它没有透露太多,因为未来的可能性是无限的。奇遇的定义是什么?假设这里的“奇怪的相遇”意味着人类用户在与聊天机器人互动时感到不舒服,我们本质上是在谈论人类的感受/敏感性。

有两个重要的问题要问:(1)当我们与真人交谈时,难道我们没有遇到奇怪的遭遇吗?(2)我们是否训练AI聊天机器人在对话过程中注意人类的感受/敏感性?

我们可以做得更好,并且我们正在AI的公平/公平问题上取得进展。但这还有很长的路要走,目前,我们还没有一个强大的计算模型来模拟人类的感受/敏感性,这就是为什么AI意味着“人工智能”,而不是“自然”智能,至少现在是这样。

公司是否会很快向公众发布一些聊天机器人?

Karmaker:从批判的角度来看,除非我们拥有支持持续终身学习的有效人工智能技术,否则像ChatGPT这样的产品永远不会准备就绪。我们生活在一个不断发展的世界中,我们的经验/观点/知识也在不断发展。然而,目前的人工智能产品大多是在固定的历史数据集上进行训练,然后部署到现实生活中,希望能够泛化到看不见的场景,但往往并非如此。然而,现在很多研究都集中在终身学习上,但该领域仍处于起步阶段。

此外,像ChatGPT和终身学习这样的技术具有正交的目标,并且它们相互补充。ChatGPT等技术可以通过接收公众的大规模反馈来揭示终身学习研究的新挑战。虽然还没有完全“准备好”,但发布像ChatGPT这样的产品可以帮助收集大量定性和定量数据,用于评估和识别当前AI模型的局限性。因此,当我们谈论AI技术时,一个产品是否真的“准备就绪”是非常主观/值得商榷的。

如果这些产品发布时有很多问题,它们会成为一个社会问题吗?

Karmaker:聊天机器人/人工智能系统中的故障与我们通常提到的常规软件故障有很大不同。故障通常被定义为正在使用的软件产品的意外行为。但是聊天机器人的故障是什么?预期的行为是什么?

我认为对聊天机器人的普遍期望是对话应该相关、流畅、连贯和真实。

显然,当今可用的任何聊天机器人/智能助手并不总是相关的、流畅的、连贯的和事实的。这是否会成为社会关注的问题,主要取决于我们作为一个社会如何对待这种技术。如果我们促进人机协作框架从人类和机器的优点中获益,那将减轻社会对人工智能系统故障的担忧,同时提高我们想要执行的目标任务的效率和准确性。

立法者似乎对规范人工智能犹豫不决。这能改变吗?

Karmaker:我认为在不久的将来不会有任何变化。随着人工智能技术和研究以非常快的速度发展,特定的产品/技术很快就会过时/过时。因此,要在短时间内准确了解此类技术的局限性,并通过制定法律来规范此类技术,确实具有挑战性。因为当我们大规模发现人工智能技术的问题时,新技术正在被创造出来,这将我们的注意力从以前的技术转移到新的技术上。因此,立法者对监管AI技术的犹豫可能会继续。

您对AI最大的期望是什么?

Karmaker:我们生活在一个信息爆炸的时代。快速处理大量信息不再是奢侈;相反,它已成为迫切需要。我对AI最大的希望是它能帮助人类大规模和快速地处理信息,从而帮助人类做出更明智的决定,这些决定会影响我们生活的方方面面,包括医疗保健、商业、安全、工作、教育、ETC。

有人担心人工智能会被用来制造广泛的错误信息。这些担忧是否成立?

Karmaker:自社会诞生以来,我们就存在缺点。对付他们的唯一办法就是迅速查明他们的身份并将他们绳之以法。传统犯罪与网络犯罪之间的一个主要区别在于,识别网络犯罪分子比识别普通犯罪分子要困难得多。这种身份验证是互联网技术的普遍问题,而不是AI技术特有的问题。

人工智能技术可以为反对者提供传播错误信息的工具,但如果我们能够快速识别来源并捕捉其背后的反对者,则可以阻止传播错误信息。立法者可以通过以下方式防止灾难性后果:(1)对任何可以在互联网上生成和传播新内容的软件实施严格的许可要求;(2)建立一个资源充足的网络犯罪监测团队,由人工智能专家担任顾问;(3)在GOV/可信网站上持续提供经过验证的信息,这将允许普通民众从他们已经信任的来源验证信息;(4)要求进行基本的网络安全培训,并使公众更容易获得教育材料。

  免责声明:本文由用户上传,与本网站立场无关。财经信息仅供读者参考,并不构成投资建议。投资者据此操作,风险自担。 如有侵权请联系删除!

 
分享:
最新文章