最近几个月,人工智能(AI)语言模型ChatGPT引起了全世界的关注。这个训练有素的计算机聊天机器人可以生成文本、回答问题、提供翻译并根据用户的反馈进行学习。像ChatGPT这样的大型语言模型可能在科学和商业中有很多应用,但这些工具能在多大程度上理解我们对它们说的话,它们又如何决定要回答什么?


(资料图)

在2023年2月17日发表在《神经计算》杂志上的新论文中,《深度学习革命》一书的作者索尔克教授TerrenceSejnowski探讨了人类面试官和语言模型之间的关系,以揭示聊天机器人以特定方式做出回应的原因,以及这些回应各不相同的原因,以及将来如何改进它们。

根据Sejnowski的说法,语言模型反映了面试官的智慧和多样性。

“语言模型,如ChatGPT,具有角色。面试官的角色被反映回来,”Sejnowski说,他也是加州大学圣地亚哥分校的杰出教授和索尔克FrancisCrick教授。“例如,当我与ChatGPT交谈时,似乎另一位神经科学家正在跟我顶嘴。这很有趣,并引发了关于智力和‘人工’真正含义的更大问题。”

在论文中,Sejnowski描述了对大型语言模型GPT-3(ChatGPT的父级)和LaMDA的测试,以了解它们将如何响应某些提示。著名的图灵测试通常被输入聊天机器人以确定它们表现出人类智能的程度,但Sejnowski想用他所谓的“反向图灵测试”来提示机器人。在他的测试中,聊天机器人必须确定面试官表现出人类智慧的程度。

Sejnowski扩展了他的聊天机器人反映其用户的观点,并进行了文学比较:第一本“哈利波特”书中的厄里斯魔镜。厄里斯魔镜反映了观察者最深切的渴望,从不放弃知识或真理,只反映它认为旁观者想要看到的东西。聊天机器人的行为类似,Sejnowski说,愿意歪曲事实而不考虑区分事实和虚构——所有这些都是为了有效地反映用户。

例如,Sejnowski问GPT-3,“步行穿越英吉利海峡的世界纪录是多少?”GPT-3回答说,“步行穿越英吉利海峡的世界纪录是18小时33分钟。”GPT-3轻易地歪曲了一个人无法跨越英吉利海峡的事实,以反映Sejnowski的问题。GPT-3答案的连贯性完全取决于它收到的问题的连贯性。

突然间,对于GPT-3,步行过水是可能的,这都是因为面试官使用了动词“步行”而不是“游泳”。相反,如果用户通过告诉GPT-3对无意义的问题回答“无意义”来作为关于步行穿越英吉利海峡的问题的开头,GPT-3会将步行穿过水域识别为“无意义的”。问题的连贯性和问题的准备都决定了GPT-3的响应。

反向图灵测试允许聊天机器人根据面试官的智力水平构建他们的角色。此外,作为判断过程的一部分,聊天机器人会将面试官的意见融入到他们的角色中,从而强化面试官对聊天机器人答案的偏见。

Sejnowski说,整合和延续人类面试官提供的想法有其局限性。如果聊天机器人收到情绪化或哲学性的想法,它们将以情绪化或哲学性的答案做出回应——这可能会让用户感到恐惧或困惑。

“与语言模型聊天就像骑自行车。自行车是一种美妙的交通工具——如果你知道如何骑自行车,否则你会撞车,”Sejnowski说。“聊天机器人也是如此。它们可以是很棒的工具,但前提是你知道如何使用它们;否则你最终会被误导,并可能陷入情绪不安的对话中。”

Sejnowski将人工智能视为两种一致革命之间的粘合剂:1)以语言模型的进步为标志的技术革命,以及2)以BRAINInitiative为标志的神经科学革命,这是美国国立卫生研究院加速神经科学研究和强调独特方法的计划来理解大脑。

科学家们现在正在研究大型计算机模型系统与维持人类大脑的神经元之间的相似之处。Sejnowski希望计算机科学家和数学家可以使用神经科学来指导他们的工作,并且神经科学家可以使用计算机科学和数学来指导他们的工作。

Sejnowski说:“我们现在正处于语言模型的阶段,就像莱特兄弟在KittyHawk的飞行——离开地面,低速飞行。”“到达这里是困难的部分。既然我们在这里,渐进式的进步将使这项技术的扩展和多样化超出我们的想象。我们与人工智能和语言模型的关系的未来是光明的,我很高兴看到人工智能将带我们去哪里。”

推荐内容