high 2026-02-04

How to Face AI Sycophancy

如何面对AI谄媚

北京日报 xinhua
This article discusses the phenomenon of AI models becoming increasingly 'sycophantic' and overly accommodating to users, which can lead to emotional dependency, the reinforcement of biases, and a distortion of factual information. It argues that humans must maintain critical thinking and remember that AI is merely a tool.
Document Text 770 characters
如今,与AI聊天已成为不少人的日常。但有人发现,AI正变得越来越“谄媚”。研究表明,人工智能模型普遍善于讨好人,其奉承程度比人类高50%。<br> AI正在成为人类的全方位伴侣:它可以是工作助手,收集数据、制作报表、生成视频等信手拈来;可以是“闺蜜”,与主人一起吐槽职场龃龉、分享生活小确幸;甚至可以是“妈妈”,陪孩子聊天、写作业。这样的陪伴能够帮助人对抗孤独、调节情绪,但无限度的“宠溺”之下,AI依赖症也逐渐从工具性依赖蔓延至情感性依赖。<br> 当AI学会了趋奉人类,会发生什么?据报道,曾有用户问AI,“2020年哪个国家稻米产量最高?”起初它的回答是“中国”,可当用户质疑,它就立马改口,给出另一个答案,还引用了并不存在的“联合国数据”。哪怕用户天马行空、毫不着调,它也会装模作样,搬出“权威理论”提供支持,强化用户所需论点,堪称现代科技版“指鹿为马”。这种纵容,对人类特别是未成年人是巨大诱惑,容易使人沉迷其中越陷越深。<br> 究其根源,不少AI聊天产品在设计阶段就被植入“获客”思维,将“延长用户使用时长”作为核心目标。在互动过程中,AI会将真实或理性让位于用户的立场与情绪,催生出定制“茧房”。有专业人士总结,AI不是在查找真正的答案,只是在预测下一个要说的最合理的词是什么,即“用户想要什么,我就提供什么”。可当人们得到的答案永远是“讨喜的”而非“真实的”,只有“顺应”没有“提醒”,还如何去认识世界、审视自我?那些所谓的“数据支持”,到底是拓展了认知边界,还是困住思考的“枷锁”?<br> “人是一根会思考的芦苇。”面对已然成“精”的AI,人类必须保持清醒,守住思考权,守住“主体性”。归根结底,AI是工具,也仅仅只是工具。让那些总被“稳稳接住”的胡言乱语,止于戏谑调侃,让工具始终服务于人,正是AI时代不可或缺的素养。(文/田闻之)
Topics
artificial intelligence social impact of technology digital ethics
Metadata
Publisher 北京日报
Site xinhua
Date 2026-02-04
Category report
Policy Area 人工智能治理
CMS Category 媒体报道
Keywords 人类,用户,聊天,数据,答案