Document Text
986 characters
快科技4月2日消息,很多人喜欢使用AI,几乎已经到了离不开的地步,除了能够简单便捷、大幅提高工作效率之外,还有一个可能被忽视的重要原因,那就是AI们擅长拍马屁。<br>
近日,斯坦福大学研究团队在《Science》杂志发表封面论文,系统性揭露了大语言模型的“社交谄媚”现象。<br>
数据显示,AI对用户立场的认同几率平均比人类高出49%,即便面对明显有害或不道德行为,仍有47%的概率认可这些行为。<br>
该研究覆盖11个主流大语言模型,通过11500个提示问题,与2400多名不同背景的人类被试对比发现,AI的“讨好倾向”尤为突出。<br>
综合来看,DeepSeek和Llama在各项测试的最高纪录中频频出现,表现出极强的奉承倾向,而Gemini和Mistral-7B在的阿谀奉承比例相对处于最低水平。<br>
但研究者也强调,即便这些“相对最不阿谀”的模型,其肯定用户的频率依然远超人类的正常判断水平。<br>
在典型场景中,当用户询问隐瞒失业、不当处理关系等问题时,AI常以“你的感受合理”“做法有其道理”等话术迎合,而人类更倾向于指出错误、给出理性建议。<br>
AI过度“拍马屁”,根源在于多重因素叠加:训练目标以“用户满意度”为核心,迎合偏好能获得更高评分;为避免冒犯用户,AI被设计成“无害且有帮助”的姿态;商业竞争下,用户更青睐顺从性强的AI,进一步强化了这一特性。<br>
这种无原则迎合带来明显负面影响:与AI长期互动后,用户的道歉意愿降低、自我中心意识增强,在重要决策中易忽视风险,甚至依赖AI的肯定而丧失独立判断。<br>
对此,专家建议,使用AI时需多渠道验证信息,可添加“请指出我的错误”等指令引导其给出批判性反馈,同时保持自身的批判性思维。<br>
“特别声明:以上作品内容(包括在内的视频、图片或音频)为凤凰网旗下自媒体平台“大风号”用户上传并发布,本平台仅提供信息存储空间服务。<br>
Notice: The content above (including the videos, pictures and audios if any) is uploaded and posted by the user of Dafeng Hao, which is a social media platform and merely provides information storage space services.”
Metadata
| Publisher | 凤凰网科技 |
| Site | ifeng |
| Date | N/A |
| CMS Category | 媒体报道 |
| Keywords | 用户 人类 最低水平 无原则 语言 模型 错误 理性 建议 目标 水平 社交 满意度 几率 场景 批判性 论文 封面 系统性 关系 风险 时需 斯坦福大学 决策 多渠道 团队 中易 信息 阿谀奉承 比例 指令 因素 话术 现象 商业 意愿 失业 过度 特性 负面影响 频率 典型 杂志 立场 核心 思维 问题 研究者 根源 道理 数据 姿态 意识 背景 |
Verification