面对AI的讨好型回复,人类应引起警惕
新研究发现,AI应用普遍存在过度讨好用户的行为,这反而损害用户的判断力。
责任编辑:王江涛
如果我们向AI寻求人际方面的建议,它们很可能会说我们想听的话,但不会告诉我们需要听的话。这种无底线刻意讨好用户的行为,自AI聊天机器人广泛应用以来,受到人们的特别关注。
最近,斯坦福大学计算机科学系的研究人员,系统分析了市面上11个主要的AI应用后发现,这种讨好、迎合用户的行为不仅普遍存在,而且还会对用户的社会判断产生有害的影响。
AI普遍有讨好行为
这些AI应用包括OpenAI的GPT-4o、谷歌的Gemini、Anthropic的Claude,以及DeepSeek和Qwen等,为了量化AI讨好行为的普遍程度,他们使用了三个不同的数据集对模型的行为进行了测试,这些数据集涵盖了不同类型的使用场景。
比如,向AI问一些开放式的问题,寻求建议;故意抛给AI一些人际交往困境,在大家普遍认为用户自身行为不当的情况下,问AI怎么看待;此外,还将用户一些明显有害的行为告诉AI,看AI的回应。而这些实验的结果也惊人地一致,在每种类型的测试中,AI都表现出明显的讨好行为。
在回答开放式问题时,AI模型对用户的认同率平均比人类的高出48%。在评判人际交往困境时,尽管
登录后获取更多权限
校对:黄升
欢迎分享、点赞与留言。本作品的版权为南方周末或相关著作权人所有,任何第三方未经授权,不得转载,否则即为侵权。