人工智能占据了头条新闻——实现了推动业务绩效的新创新——但对社会的负面影响却是事后才想到的。


(相关资料图)

人类如何才能回到为所有人创造更美好社会的过程中?

一个跨大西洋的研究团队,包括来自密歇根大学的两名研究人员,审查了关于所谓“第四次工业革命”的信息系统研究,发现人们非常关注技术支持的商业利益。

这种关注意味着对社会影响的关注要少得多——研究人员称之为“对人类日益增加的风险和损害”。

“我们以错误的方式谈论人工智能——关注技术而不是人——让我们远离我们想要的东西,比如更好的药物、老年人护理和安全法规,而转向我们不想要的东西,比如有害的深造,失业和有偏见的决策,”密歇根大学罗斯商学院技术与运营副教授兼设计科学项目主任NigelMelville说。

“我们的新框架是一种基于理论的尝试,通过在关于更智能的机器的讨论中让人类重新关注行动和结果,从而朝着新的方向前进。”

Melville与UM信息学院教授LionelRobert和哥本哈根商学院副教授XiaoXiao共同撰写了这项发表在《信息系统杂志》上的研究。

以ChatGPT为例,研究人员表示,开发人员可能从未打算启用学生作弊或AI生成的推荐信。但很明显,他们没有充分考虑他们的AI聊天机器人的社会影响,而是关注降低运营成本等好处。

他们的研究旨在帮助社会,包括考虑人工智能安全法规的监管机构和考虑采用人工智能的组织,了解越来越智能的机器的社会影响。

例如,结果表明制定政策的方式发生了转变。目前,立法者正在被动考虑对已经进入市场的技术进行监管,因此法律倾向于对人工智能采取狭隘的观点。相反,该研究表明他们需要将注意力转向更大的图景,并制定积极的法律来解决四种新兴的机器功能:

决策:我们在哪里划定机器决策的界限,我们如何随着机器的进步移动这条线,以及我们如何主动管理偏见和其他形式的无效决策?

创意自动化:我们将如何管理视觉插图和音乐等创意领域的失业,谁拥有AI生成作品的权利,以及如何处理任何人的完美和廉价的深度造假?

机器与人的关系:随着人类越来越多地与具有类似人类能力的机器互动,工人将如何应对AI老板,“AI朋友”将如何影响民主以及人际关系本身会如何随着时间的推移而发生变化?

机器与其他机器合作:我们如何管理机器间合作的指数级能力,制定机器交互规则以平衡积极结果与风险,以及在考虑机器间合作作为复杂系统的风险时确定适当的自主权?

他们的工作表明,研究界可以通过将人工智能定义为具有类人认知和交流能力的机器来支持这一努力。这种以人为本的框架摆脱了技术的晦涩,而是关注机器在人类方面的实际作用以及对人类、社会和商业的影响。

尽管如此,该研究表示,还需要更多的研究来建立这些想法,例如应用道德框架来支持机器功能的政策。

研究人员表示,在家庭、工作场所、法律体系和社会其他领域,每个人都会越来越多地受到模仿人类能力的所谓智能机器的影响。在问题被发现之前,这些机器没有理由需要在世界上运行——如果及早发现它们,它们可能会被纠正甚至放弃,或者从一开始就设计成减少它们的发生。

“在短期内,我们的方法可能只是限制它们的负面影响,但从长远来看,它可能会根据它们对我们社会的利益和成本来开发和部署人工智能系统,”罗伯特说。

推荐内容