type
Post
status
Published
date
Mar 14, 2026
slug
why-llms-hallucinate
summary
这篇文章用最少术语讲清楚:为什么大模型会出现幻觉,为什么它会越答越像真的,以及普通人怎样明显降低幻觉。读完你会更会用 AI,而不是更怕它。
tags
知识
工具
思考
category
技术分享
icon
password
这篇文章只讲一件事:为什么 AI 会一本正经地胡说八道。如果你经常觉得大模型回答得特别像真的,但细看又有事实错误,这不是你运气差,而是大模型本来就有一类很典型的错误模式,叫做幻觉。理解了它,你就不会再把 AI 用成一个看起来很聪明、实际上风险很高的“自信型助手”。
你大概已经遇到过这种情况:
- 让 AI 推荐一本书,它能编出并不存在的出版社和 ISBN
- 让 AI 总结一篇文章,它会把原文里没有的结论也写进去
- 让 AI 查一个冷门事实,它会说得非常流畅,但就是不对
很多人第一次遇到这种情况会以为:是不是模型太笨了,或者是不是联网没开。我的结论刚好相反:大模型最危险的地方,不是它不会说,而是它太会说。
📝 1. 先说结论:大模型不是在“查资料”,而是在预测下一个词
先把最重要的一件事讲清楚。
大模型在最底层做的事情,不是“像搜索引擎一样先查数据库,再把正确答案吐给你”;它更接近于:根据你给它的上下文,预测下一个最可能出现的词、句子和段落。
这就是为什么它能写得很顺、很像人,也能把逻辑、语气、结构模仿得特别自然。问题也恰恰出在这里:“像真的”不等于“是真的”。
如果某个问题的答案在训练数据里是稳定模式,比如常见语法、普通表达、公开高频知识,大模型通常答得不错。但如果这个问题对应的是一个低频、细碎、难验证、甚至本来就缺上下文的事实,它就可能开始“补”。
更直白一点说:
- 它非常擅长生成“像答案的文本”
- 它并不天然保证“这个答案经过了真实核验”
这就是为什么很多幻觉看起来不是胡言乱语,而是特别像认真写错的答案。
📝 2. 幻觉到底从哪来
我更愿意把大模型的幻觉拆成两个来源。
2.1 来源一:预训练本质上是模式学习,不是真假判定
在预训练阶段,模型看到的是海量文本,然后学习这些文本里“什么词常跟什么词一起出现”“什么表达常跟什么表达连着来”。
这套机制对语言流畅性非常有效,但它天然不等于真假校验系统。
比如拼写、括号配对、常见句式,这些东西有很强的模式,所以模型越大越不容易出这种错。可像生日、论文标题、具体日期、冷门人名、编号这类事实,本来就更接近“随机细节”而不是强模式。对这类信息,模型更容易生成一个看起来合理但实际上不对的版本。
2.2 来源二:很多训练和评测机制,其实在奖励“猜”
OpenAI 在 2025 年 9 月 5 日发布的研究文章里讲得很直白:很多常见评测会奖励模型去猜,而不是奖励它承认不确定。[1]
这件事特别像考试。
如果一道题你不会做,瞎猜还有概率拿分;空着不写就是零分。那在大量这种环境里,被训练出来的系统就会更倾向于“先给一个像样的答案”,而不是“老老实实说我不知道”。
于是你会看到一种非常典型的体验:它不是没有意识到自己不确定,而是在系统激励下更倾向于继续往下说。
📝 3. 为什么它明明不确定,还会越说越像真的
这是很多人最困惑的一点。
人类在不确定的时候,通常会从语气里露怯,比如“可能”“我不太确定”“你最好再查一下”。但大模型并不是按“自信程度”来组织语气的,它是按“什么样的表达最像一个完整回答”来组织语言的。
而在互联网和训练数据里,最常见的答案风格往往不是犹豫,而是完整、肯定、结构清晰。
所以只要它进入了“开始回答”这条轨道,就很容易继续生成:
- 看起来很专业的术语
- 很像真的因果链条
- 很完整的步骤和结论
这也是为什么幻觉最容易骗到人的,不是错字,而是那种完整得像做过研究的错。
大模型的危险不在于“乱说”,而在于它经常会用正确的语气,说错误的事实。
📝 4. 为什么问题越模糊,幻觉越严重
如果你仔细观察,会发现大模型最容易在下面几种任务里翻车:
- 问题太大,比如“给我讲清楚某个复杂历史事件”
- 目标太空,比如“帮我写一段专业分析”
- 事实边界不清,比如“整理一下这家公司最近的重要动作”
- 你没有给材料,却要求它像已经看过资料一样回答
原因很简单:上下文越少,模型就越需要自己补全。
而一旦进入补全模式,它就不只是补文字,还会补:事实、关系、因果、细节、出处。
所以很多人觉得“AI 越高级,怎么有时越会编”,本质上不是因为它变差了,而是因为它的语言组织能力更强了,编出来的东西也就更像真的了。
📝 5. 为什么“推理模型”甚至“联网模型”也还是会错
这点也很值得单独说。
推理模型会比普通模型更愿意分步骤思考,这通常能降低一部分错误;联网模型也能从外部拿到新信息,这也通常有帮助。但这两者都不等于“不会幻觉”。
原因很现实:
- 推理能力可以改善思路,不等于自动拥有真实证据
- 联网可以带来信息,不等于检索到的内容就是对的、够的、最新的
- 就算拿到了材料,模型也可能在总结、压缩、转述时引入新错误
OpenAI 在同一篇关于幻觉的文章里也明确说了:即使是更先进、会推理的模型,幻觉仍然是所有大模型的基础挑战,只是程度在下降,不是完全消失。[1]
所以更稳妥的理解方式不是“这个模型不会错”,而是:这个模型在什么条件下更不容易错。
📝 6. 普通人怎么明显降低幻觉
这部分最值得收藏,因为它直接决定你平时用 AI 到底顺不顺。
6.1 让它只根据材料回答,不要凭空发挥
这是最有效的一条。
如果任务涉及事实,不要只丢一个问题过去。更好的做法是:把原文、截图、链接、会议纪要、你已有的资料一起给它,然后明确写:
这样做的核心不是“让它更聪明”,而是缩小它能自由发挥的空间。
6.2 让它给出处,最好是直接引用
Anthropic 在官方的“减少幻觉”文档里给了一个很实用的建议:先让模型抽取直接引文,再基于引文做总结,或者要求每个关键结论都给出可核查的引用。[2]
这一步非常关键,因为一旦你要求“每条结论都要能回指到原文”,很多编出来的内容就会自己露馅。
6.3 明确允许它说“我不知道”
这听起来很小,但实际很有用。
如果你不写这一句,模型常常会默认“用户要的是一个完整答案”。
但如果你显式允许它承认不确定,比如:
它就更容易收住,而不是硬着头皮往下编。
6.4 把任务拆成“事实”和“表达”两步
很多人喜欢一步到位:先让 AI 查事实,再让它总结,再让它写成公众号文案。
这很方便,但风险也很高。
更稳的做法是分两步:
- 先让它整理事实,并标出依据
- 再让它根据已经核过的事实去写表达版本
这样你会明显减少那种“文案看起来很好,但底层事实已经歪了”的情况。
6.5 对高风险信息,坚持人工复核
这一条没有捷径。
无论模型多强,下面这些场景我都建议你默认人工再看一遍:
- 医疗建议
- 法律判断
- 金融决策
- 对外发布的正式数据
- 线上执行前的关键代码和配置
AI 在这些场景里依然非常有用,但更适合做:草稿、整理、对比、解释,而不是最后拍板。
📝 7. 一条可以直接复制的“防幻觉提问模板”
如果你平时经常拿 AI 处理资料,这个模板可以直接存着:
这个模板不会让 AI 变成绝对正确,但它会明显降低“它特别自信地编了半天”的概率。
📝 8. 最后一句总结
如果要我用一句话总结大模型幻觉,我会这样说:
大模型首先是一个极强的语言生成器,然后才是一个在某些条件下很好用的知识助手。
一旦你把这个顺序想反了,就很容易被它的流畅骗到;一旦你把这个顺序想对了,你就会突然发现,AI 其实没有那么可怕,它只是需要被用在正确的位置上。
所以更好的用法不是“把 AI 当裁判”,而是:
- 把它当草稿机
- 把它当整理器
- 把它当解释器
- 把它当你思考前后的加速层
但在关键事实上,最后那个“这句话到底对不对”,还是应该由你来拍板。
📎 参考链接
如果你还想继续做下一篇高收藏科普,我建议接着写:“为什么参数更多,不一定代表模型更聪明?” 这类内容和这篇很容易形成一个系列。