ChatGPT会给世界带来意想不到的风险吗?

AI模型不断增长的复杂性和能力有可能带来潜在的问题,因为模型能够开发出我们无法控制的新技能;对于某些风险很高的算法,应该未雨绸缪,提前应对。

(本文首发于2023年2月23日《南方周末》)

责任编辑:朱力远

2022年以前发布的语言模型几乎没有解决心智任务的能力,但进入2022年之后,情况有了很大改变。在实验测试中,GPT-3可以解决70%的心智任务,相当于七岁儿童的表现,而GPT-3.5可以解决93%的心智任务,相当于九岁儿童的表现。 (视觉中国/图)

人工智能应用ChatGPT发布仅三个月就火遍全球。这款语言模型AI工具可以回答用户提出的问题,并以对话的形式进行互动。按照开发者OpenAI的介绍,在互动中它还能纠正提问中的错误,以及拒绝一些不适当的要求。

令人意想不到的高水平回答问题能力使其很快受到追捧,应用场景甚至包括帮学生写论文等。为了学生学习考虑,纽约市教育部门已禁止在当地学校的网络和设备上使用该应用。而随着ChatGPT为越来越多人所知,其潜在的社会风险也受到各界的讨论。

最近,著名语言学家、哲学家、麻省理工学院退休教授诺姆·乔姆斯基(Noam Chomsky)就评价一些ChatGPT的用法基本上是在用高科技抄袭来逃避学习。因为校园论文剽窃本身就是教育和科研领域一个老问题,而ChatGPT帮助一些人剽窃起来更容易了,这也将使教育工作者解决这个问题的过程变得更难。而实际上,ChatGPT目前不仅会写诗歌、写论文,凭借其不断训练中习得的语言能力,看似简单的对话背后可能还蕴藏着其他暂不为人知的能力以及风险。

计划外的心智能力

“AI模型不断增长的复杂性和能力意味着我们预测和管理它们行为的能力在不断降低。”斯坦福大学计算社会科学家米哈尔·科辛斯基(Michal Kosinski)告诉南方周末记者,我们应该更加小心地朝前走,认真对待其可能带来的潜在问题,因为“模型能够开发出我们无法控制的新技能和能力”。

之所以有这样的判断,是因为米哈尔·科辛斯基最近刚刚开展一项大型语言模型研究,表明人工智能工具可能拥有一些像人类一样的心智能力,以推测其他人的心理状态,从而在跟人互动时不断提高自己的语言能力。但是,这样的心智能力此前一

登录后获取更多权限

立即登录

网络编辑:蓁蓁

欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}