一项新的研究表明,由人工智能驱动的写作助手可以自动完成句子或提供“智能回复”,不仅可以将文字送入人们的口中,还可以将想法灌输到人们的脑海中。
(资料图片)
信息科学领域的博士生MauriceJakesch要求1,500多名参与者写一段话来回答“社交媒体对社会有益吗?”这个问题。与没有人工智能帮助写作的人相比,使用偏向或反对社交媒体的人工智能写作助手的人写出同意助手的段落的可能性是后者的两倍,并且更有可能说他们持有相同的观点。
研究人员表示,这项研究表明,人工智能写作工具中存在的偏见——无论是有意还是无意——可能会对文化和政治产生影响。
“我们正急于在各行各业实施这些人工智能模型,但我们需要更好地理解其影响,”共同作者、康奈尔理工学院雅各布斯理工学院-康奈尔学院教授、信息科学教授MorNaaman说。CornellAnnS.Bowers计算与信息科学学院。“除了提高效率和创造力之外,还可能对个人和我们的社会产生其他影响——语言和观点的转变。”
虽然其他人已经研究了ChatGPT等大型语言模型如何创建有说服力的广告和政治信息,但这是第一项表明使用人工智能工具写作的过程可以影响一个人的意见的研究。Jakesch在4月举行的2023CHI计算系统人为因素会议上介绍了这项研究,“与自以为是的语言模型共同写作会影响用户的观点”,该论文获得了荣誉奖。
为了了解人们如何与AI写作助手互动,Jakesch操纵了一个大型语言模型来对社交媒体产生正面或负面的看法。参与者在他建立的一个模仿社交媒体网站的平台上,单独或与一位固执己见的助手一起写下他们的段落。该平台会在参与者打字时收集他们的数据,例如他们接受了哪些AI建议以及他们撰写段落所用的时间。
根据独立评委的判断,与没有写作助理的参与者相比,与支持社交媒体的AI助理共同写作的人会写出更多的句子来证明社交媒体是好的,反之亦然。这些参与者也更有可能在后续调查中表达其助手的意见。
研究人员探索了人们只是接受人工智能建议以更快完成任务的可能性。但即使是花了几分钟来撰写段落的参与者也提出了影响很大的陈述。调查显示,大多数参与者甚至没有注意到人工智能有偏见,也没有意识到他们受到了影响。
“共同写作的过程并不真的让我觉得我被说服了,”Naaman说。“感觉就像我在做一些非常自然和有机的事情——我在一些帮助下表达我自己的想法。”
当用不同的主题重复实验时,研究小组再次发现参与者被助手左右了。现在,该团队正在研究这种体验如何产生这种转变,以及这种影响会持续多久。
正如社交媒体通过促进错误信息的传播和回声室的形成改变了政治格局一样,有偏见的人工智能写作工具可能会产生类似的观点转变,这取决于用户选择的工具。例如,一些组织宣布他们计划开发ChatGPT的替代方案,旨在表达更保守的观点。
研究人员说,这些技术值得就它们如何被滥用以及如何对其进行监控和监管进行更多的公开讨论。
“这些技术变得越强大,我们将它们嵌入我们社会的社会结构中越深,”Jakesch说,“我们可能会更加谨慎地管理我们如何管理这些价值观、优先事项和观点。”
微软研究院的AdvaitBhat、拜罗伊特大学的DanielBuschek和特拉维夫大学的LiorZalmanson对这篇论文做出了贡献。