新的研究表明,重新构建我们谈论大型语言模型以及与大型语言模型互动的方式可能有助于我们适应它们的智力。
改变我们思考和谈论像ChatGPT这样的大型语言模型的方式可以帮助我们应对它们所拥有的奇怪的新型智能。这是根据伦敦帝国理工学院研究人员在《自然》杂志上发表的一篇新论文得出的结论。
此类聊天机器人以基于神经网络的大语言模型(LLM)为基础,可以让人产生一种令人信服的感觉,即我们正在与人类同胞而不是人工智能交谈。
人类大脑天生具有社交能力,能够与类人实体建立联系并产生共鸣。然而,这可能会给与聊天机器人和其他基于人工智能的实体交互的人类带来问题。如果这些法学硕士被诈骗者或宣传者等恶意行为者利用,人们可能很容易为了寻求联系而交出银行详细信息,或者受到政治影响。
现在,一篇新论文提出了一些建议,以防止我们过度同情人工智能聊天机器人而造成损害。主要作者、伦敦帝国理工学院计算系的MurrayShanahan教授表示:“我们称呼法学硕士的方式将他们拟人化,以至于我们冒着像对待亲戚一样对待他们的风险。通过说法学硕士‘理解’我们、‘思考’或‘感觉’’在某些方面,我们赋予了他们人类的品质。我们的社交大脑总是在寻找联系,所以这里有一个我们应该保护的弱点。”
研究人员认为,为了更好地理解研究人员所说的“奇异的类似心灵的文物”,我们需要改变对它们的思考方式。这可以通过使用两个基本隐喻来实现。首先,从简单直观的角度来看,我们可以将人工智能聊天机器人视为扮演单个角色的演员。其次,从更细致和技术的角度来看,我们可以看到人工智能聊天机器人维持着对许多可能角色的模拟,在可能角色的多元宇宙中对冲他们的赌注。
沙纳汉教授说:“两种观点都有其优点,这表明思考此类主体的最有效策略不是坚持单一隐喻,而是在多个隐喻之间自由转换。”