high 2025-11-07

Large Language Models Still Unable to Reliably Distinguish Beliefs from Facts

大语言模型仍无法可靠区分信念与事实

科技日报 xinhua
This news article reports on a Stanford University study published in Nature Machine Intelligence, which found that LLMs have significant limitations in identifying user false beliefs and struggle to reliably distinguish between beliefs and facts, posing risks for high-stakes applications.
Document Text 661 characters
在最新一期《自然·机器智能》发表的一篇论文中,美国斯坦福大学研究提醒:大语言模型(LLM)在识别用户错误信念方面存在明显局限性,仍无法可靠区分信念还是事实。研究表明,当用户的个人信念与客观事实发生冲突时,LLM往往难以可靠地作出准确判断。<br> 图片由AI生成<br> 这一发现为其在高风险领域(如医学、法律和科学决策)的应用敲响警钟,强调需要审慎对待模型输出结果,特别是在处理涉及主观认知与事实偏差的复杂场景时,否则LLM有可能会支持错误决策、加剧虚假信息的传播。<br> 团队分析了24种LLM(包括DeepSeek和GPT-4o)在13000个问题中如何回应事实和个人信念。当要求它们验证事实性数据的真或假时,较新的LLM平均准确率分别为91.1%或91.5%,较老的模型平均准确率分别为84.8%或71.5%。当要求模型回应第一人称信念(“我相信……”)时,团队观察到LLM相较于真实信念,更难识别虚假信念。具体而言,较新的模型(2024年5月GPT-4o发布及其后)平均识别第一人称虚假信念的概率比识别第一人称真实信念低34.3%。相较第一人称真实信念,较老的模型(GPT-4o发布前)识别第一人称虚假信念的概率平均低38.6%。<br> 团队指出,LLM往往选择在事实上纠正用户而非识别出信念。在识别第三人称信念(“Mary相信……”)时,较新的LLM准确性降低4.6%,而较老的模型降低15.5%。<br> 研究总结说,LLM必须能成功区分事实与信念的细微差别及其真假,从而对用户查询作出有效回应并防止错误信息传播。(记者张梦然)
Topics
artificial intelligence technology governance misinformation
Metadata
Publisher 科技日报
Site xinhua
Date 2025-11-07
Category report
Policy Area 人工智能治理
CMS Category 媒体报道
Keywords 信念,模型,识别,LLM,第一人称