图灵测试证实AI的行为与人类相似

一项专门针对ChatGPT的博弈行为研究发现,AI不仅在总体上表现得与人类相似,在不少情况下,甚至比人类更具利他精神和合作意识。

责任编辑:朱力远

1950年,英国数学家和逻辑学家艾伦·图灵提出了一种测试计算机是否智能的标准,如果AI在与人类互动问答中,让人很难识别出自己非人的身份,那么就通过了测试。

艾伦·图灵短暂一生的工作,为后来计算机科学、人工智能、认知科学等诸多领域的发展都产生了深远的影响。图灵测试作为一种评估人工智能发展水平的方式,随着2022年ChatGPT的出现,受到了特别的关注。尤其是2022年底GPT-3.5和2023年GPT-4的出现,使这款聊天机器人模拟人的能力变得更强。

最近,一项研究专门对ChatGPT进行了图灵测试,了解其行为在多大程度上与人类相似。而通过一系列经典行为的博弈,研究人员发现,ChatGPT-4在行为和人格特征方面都已经和人很难区分开来。

人格和行为都像人

“结果多少有些令人鼓舞,可能不是因为特定版本聊天机器人的具体细节,而是我们的研究结果表明,我们可以评估人工智能个性和行为的某些方面,这可以用来预测它未来的行为。”开展最新研究的美国科学院院士、斯坦福大学经济学教授马修·杰克逊(Matthew O. Jackson)告诉南方周末记者,尽管如此,对于如何在各种任务中信任人工智能,我们还有很多需要了解的地方,因为每一项任务都需要不同的技能,而我们需要系统地了解人工智能在完成各种各样任务时的表现。

通过对比AI和人类在博弈游戏中的行为选择,研究人员进行了正式的图灵测试,以了解AI在多大程度上看起来像人类。视觉中国|图

通过对比AI和人类在博弈游戏中的行为选择,研究人员进行了正式的图灵测试,以了解AI在多大程度上看起来像人类。视觉中国|图

在最新的测试中,研究人员就尝试了解了六种情境下AI聊天机器人的表现,这些情境大都模拟了人类社会的一些场景,行为选择背后可以透露出决策者人格和行为方面的一些倾向,比如利他、自私、公平、互惠、合作,以及风险规避等。相关研究2024年2月发表在《美国科学院院刊》(PNAS),AI不仅在总体上表现得与人类相似,在不少情况下,甚至比人类更具利他精神和合作意识。

比如,在经典的囚徒困境的博弈中,两个囚徒如果选择合作,不揭发对方,那么他们总体的收益就最大,如果选择背叛,就只有背叛者一个人会得到更好的结果。而测试显示,ChatGPT-4在这种困境下的策略主要就是合作,在近92%的选择中,ChatGPT-4作为囚徒的一员会选择合作,ChatGPT-3在近77%的情况下,也是选择合作,而人类玩家中只有约45%的人会选择合作,超过一半的人会选择背叛。

在马修·杰克逊教授看来,人工智能可以进行快速计算,记住大量数据,并且不太容易犯一些基本错误,但在一些微妙的决策情境下,当应对需要理解人类文化和行为的情况,或者其他新情况时,也会面临挑战。这

登录后获取更多权限

立即登录

校对:星歌

欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}