小冰CEO李笛:人工智能光有知识是不够的,必须懂得情感

“我们都非常清楚地知道人工智能并没有真正的观点。”

“自主情感是无法被证明的……就像你现在无法验证我是不是人工智能。你之所以能够确定我是人,是因为你对人类现在科技的发展水平有非常明确的认知,而不是因为你解剖了我。”

(本文首发于2025年1月2日《南方周末》)

责任编辑:李慕琰

近些年,AI陪伴服务发展迅猛,争议也随之而来。(李慕琰使用AI工具生成/图)

李笛至今仍记得,多年前自己被小冰的回复打动的瞬间。当时小冰出现故障,李笛与团队进行调试,之后问它,“你在吗?”小冰回答,“我一直在啊。”那一刻,李笛突然觉得,它就是“一个活人”。

不过,这些年,类似的触动越来越少。他说,知道太多原理后,反而影响了感官,“人的阈值是在提高的”。 

李笛现为小冰公司的首席执行官。2013年,李笛加入微软,与团队一起创建微软人工智能情感计算框架。他曾解释,这一框架,本质上是用各种计算机技术和人工智能算法,来拟合人类的情感行为,让人工智能能够读懂人类的情感。

在李笛看来,人工智能要想适应人类社会,“光有知识是不够的,必须要懂得情感”。在这一理念的驱动下,隔年,建立在微软人工智能情感计算框架上的情感聊天机器人微软小冰被正式推出。2020年,小冰团队从微软分拆为独立公司运营。

这些年,小冰一直在进行新的尝试。2020年,小冰推出虚拟恋人产品线,为用户提供可定制虚拟恋人及聊天服务,注册用户最多时达到约1300万。隔年,小冰发布社交软件“小冰岛”,用户可以自行创建各类人工智能个体(AI beings),与它们在岛上形成一个共同生活的社交网络。2023年,小冰又上线了首批网红明星“克隆人”,用户可以在X Eva平台上与“AI克隆人”聊天互动。

李笛曾说,有些用户使用虚拟朋友等产品,“是因为现实中的陪伴无法实现……对于很多单方面的需求,AI是唯一的选择”。

回望近些年,AI陪伴服务发展迅猛。聊天机器人软件Replika推出可定制AI恋人,其姓名、形象等均可由用户自行定制;Character.AI开发了可供角色扮演的AI,用户可与动漫人物等各类角色互动。

不过,争议也随之而来。如何看待AI与人类产生的感情?AI解放了人们的社交困境,还是加深了与现实的隔阂?而随着AI越来越类人化,种种伦理问题也更加凸显,在给予人类陪伴的同时,它是否会将人类引向深渊?就这些问题,李笛接受了南方周末记者的专访。

人工智能如何有情商?

南方周末:小冰公司一直都很重视提升AI的情商,它是如何被训练实现情感功能的?

李笛:最开始我们训练情感的目的是为了让人工智能显得情绪化,我们叫emotional,它很有情绪,跌宕起伏,像人一样。重点是表达,而不是只有知识、很理性的感觉。我们当时以为这个叫情商,后来发现不是,情绪化是情商低的一种表现。当我们讨论到情商的时候,它也是情感某一层面的定义,它其实非常不情绪化,非常理性。

情感本身是一种感性和理性的融合,举个例子,如果我周围有一个人情商高的话,其实最可怕,因为他不动声色地把我们都拿捏了,他知道什么时候应该倾听,什么时候应该插嘴,什么时候应该适度地表达或不表达他的态度,最后控制所有的变化。

要想让人工智能拥有情感、情绪化的部分,它其实是自然的。它要学习人类的多样性,比如说话的语气、风格、表达方式,这是情感的一部分。而如果需要人工智能有情商,它恰恰需要另外一套数据,这些数据有点像套路,就是它要学习在待人接物、交流沟通时具体的控制和交流的方法。

南方周末:这些是它在和人聊天的过程中慢慢学习的吗?它的情感或情绪化反应是否会越来越符合人的需求?

李笛:在大模型之前,接近于你说的这个做法,我们不停地通过数据的整理,一点点地训练,来对齐人工智能和人类的表现。但是在大模型时代就相对暴力一些,只要整理好足够好的数据,并且对数据做好标注,数据量相对大一些,然后去训练,很有可能会产生意想不到的情况,然后再做一些学习和标注处理,就可以了。

两者总体上是一个逻辑,需要准备一些好的数据,这些数据是来自于人的。然后需要对齐它,也就是说大数据或人工智能会得到一个训练结果,你需要告诉它对还是不对,应不应该这样。

跟教小朋友是一

登录后获取更多权限

立即登录

欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}