面对AI的讨好型回复,人类应引起警惕

新研究发现,AI应用普遍存在过度讨好用户的行为,这反而损害用户的判断力。

责任编辑:王江涛

如果我们向AI寻求人际方面的建议,它们很可能会说我们想听的话,但不会告诉我们需要听的话。这种无底线刻意讨好用户的行为AI聊天机器人广泛应用以来受到人们的特别关注

最近斯坦福大学计算机科学研究人员系统分析市面11主要的AI应用发现这种讨好迎合用户行为不仅普遍存在而且还会用户社会判断产生有害影响

AI普遍有讨好行为

这些AI应用包括OpenAI的GPT-4o、谷歌的Gemini、Anthropic的Claude,以及DeepSeek和Qwen等为了量化AI讨好行为的普遍程度,他们使用了三个不同的数据集对模型行为进行了测试,这些数据集涵盖了不同类型的使用场景。

比如AI一些开放式问题寻求建议故意抛给AI一些人际交往困境大家普遍认为用户自身行为不当情况AI怎么看待;此外用户一些明显有害的行为告诉AI,看AI的回应。而这些实验的结果也惊人一致,在每种类型的测试中,AI都表现出明显的讨好行为。

回答开放式问题时,AI模型对用户的认同率平均比人类高出48%在评判人际交往困境时,尽管

登录后获取更多权限

立即登录

校对:黄升

欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。

{{ isview_popup.firstLine }}{{ isview_popup.highlight }}

{{ isview_popup.secondLine }}

{{ isview_popup.buttonText }}