什么是幻觉?大模型为什么会"一本正经地胡说八道"?


目录:

  1. 前文回顾
  2. 背景引入:AI 咋也会"骗人"?
  3. 核心概念一:什么是幻觉
  4. 核心概念二:幻觉是怎么产生的
  5. 核心概念三:幻觉的类型
  6. 核心概念四:幻觉和撒谎的区别
  7. 核心概念五:如何减轻幻觉
  8. 幻觉的"正面"作用
  9. 本文小结
  10. 今日思考题

一、前文回顾

在前面几篇文章中,咱们聊了:

  • 大模型的"思考"原理是 预测下一个词
  • 训练过程是 从海量数据中学习模式
  • 分词器把文本变成 Token 和词向量

但是!有一个问题咱们一直没深入讲:

为什么大模型有时候会"一本正经地胡说八道"?

比如:

你:"鲁迅写过哪首《咏梅》?"

AI:"鲁迅的《咏梅》写于1932年,是一首著名的现代诗,
    全诗如下:风雨送春归,飞雪迎春到..."


(其实这首诗是毛泽东写的)

这种自信满满但完全错误的现象,就是今天要讲的主题——幻觉(Hallucination)


二、背景引入:AI 咋也会"骗人"?

先来听几个真实的例子:

案例一:编造不存在的论文

用户:"给我找几篇关于深度学习的论文"

AI:"推荐以下几篇:
    1. 'Deep Learning for NLP' by Zhang et al., 2022
    2. 'Attention Mechanisms in CNN' by Li & Wang, 2023
    ..."


(这些论文标题听起来很专业,作者也像那么回事,
但事实上根本不存在!)

案例二:虚构历史事件

用户:"讲讲明朝的万历年间发生了什么"

AI:"万历年间,明朝发生了一件著名的事件:
    '万历三十八年,利玛窦在北京开设了第一家西餐厅'..."


(完全是编造的!)

案例三:代码里的"幻觉"

用户:"Python 里怎么把列表转成字符串?"

AI:"可以使用 list_to_string() 函数:
    result = list_to_string(my_list)"


(Python 里根本没有这个函数!)

这些例子有一个共同特点:说得跟真的一样,但全是错的

这就是大模型的幻觉


三、核心概念一:什么是幻觉

3.1 幻觉的定义

幻觉(Hallucination)是指:

大模型生成的看似合理、流畅、自信,但事实上不正确或不存在的内容。

3.2 关键特征

大模型产生的幻觉有三个明显特征:

特征 说明 例子
看似合理 符合语言习惯和逻辑 "Python的list_to_string()函数"听起来像真有
流畅自然 语法正确、表达连贯 文本读起来很顺畅
自信满满 语气确定、没有犹豫 "确实是"、"毫无疑问"
内容错误 事实不存在或不准确 但其实根本没有这个函数

这种"自信的错误"最具有迷惑性

3.3 幻觉不是"Bug",是"特性"

这句话可能听起来很奇怪,但:

幻觉不是程序的 bug,而是模型工作方式带来的副作用

为什么这么说?咱们接着往下看。


四、核心概念二:幻觉是怎么产生的

这是本文的核心!咱们要深入理解幻觉产生的根本原因

4.1 根本原因:大模型不知道什么是"真"

首先,一个关键的认识:

大模型没有"真假"的概念,只有"概率"的概念

咱们来回忆一下大模型是怎么工作的:

输入:"鲁迅写过哪首《咏梅》?"

大模型的思考过程:
1. 理解问题:鲁迅、《咏梅》、诗歌
2. 搜索模式:训练数据中关于鲁迅、咏梅、诗歌的模式
3. 预测下一个词:根据概率预测
   "鲁迅" → "的" → "《咏梅》" → "是" → "一首" → ...
4. 生成回答:"鲁迅的《咏梅》写于..."

问题来了:它不是在"查资料",而是在"创作"

4.2 详细分析:幻觉的产生过程

咱们用一个具体的例子来分析:

用户:"谁发明了电灯?"

正确的知识:爱迪生
大模型的预测过程:
Step 1:理解输入
"谁"(疑问词)
"发明"(动作)
"了"(助词)
"电灯"(物品)
"?"(标点)
Step 2:在训练数据中找模式

大模型的参数里"记住"了训练数据中的模式:

模式1:"谁发明了X" → 回答一个人名
模式2:"电灯"经常和"爱迪生"一起出现
模式3:发明X的句式是"X发明了..."
Step 3:根据概率预测
可能的下一个词:
"爱迪生" → 概率 85%
"特斯拉" → 概率 5%
"富兰克林" → 概率 3%
...
Step 4:生成回答
"爱迪生"(正确!)

但是!如果训练数据中有噪声,或者模式被混淆了:

用户:"鲁迅写过《咏梅》吗?"

大模型的预测:
1. "鲁迅" → 经常和"诗歌""文章"一起出现
2. "咏梅" → 经常和"毛泽东""诗词"一起出现
3. 这两个概念在训练数据中都很多
4. 模型可能"混淆"
5. 预测出:"鲁迅的《咏梅》..."(错误!)

幻觉 = 模式混淆 + 概率预测

4.3 产生幻觉的几个主要原因

原因 说明 例子
训练数据有误 错误的信息被学习了 网上有人误传,模型学到了
模式混淆 不同概念的模式混在一起 鲁迅和毛泽东的诗词混淆
知识缺失 训练数据中没有这个知识 编造不存在的论文
过度生成 模型喜欢"创造性"地生成 虚构历史事件
上下文误解 误解了用户意图 答非所问但很自信

五、核心概念三:幻觉的类型

幻觉不是只有一种,咱们来分类讲讲。

5.1 按内容分类

类型一:事实性幻觉

编造不存在的事实

例子:
"李白的《静夜思》写于1998年"
(时间完全错误)

"爱因斯坦发明了电灯泡"
(人物错误)
类型二:逻辑性幻觉

推理过程有漏洞

例子:
"所有鸟都会飞,企鹅是鸟,所以企鹅会飞"
(前提就错了)

"如果今天下雨,我就不带伞。今天下雨了,
所以我带了一把大伞"

(逻辑矛盾)
类型三:数值性幻觉

数字算错或编造

例子:
"123 × 456 = 56088"
(正确答案是 56088,但模型可能算成其他数)

"地球的周长是 10000 公里"
(错误,实际约 40000 公里)
类型四:引用性幻觉

编造文献、链接、来源

例子:
"根据《自然》杂志2023年的一项研究..."
(根本没有这项研究)

"更多信息请访问 https://example-ai-research.com/paper"
(这个网站根本不存在)

5.2 按意识程度分类

类型一:无意识幻觉

模型真的不知道自己在胡说

模型:基于概率预测,认为是对的
实际上:完全错误

这是最常见的幻觉类型。

类型二:有意识"幻觉"

模型**知道不确定,但还是生成**。

用户:"具体的数据是多少?"

模型(内心):我不太确定...
模型(输出):"根据数据显示,大约是 76.3%"

(为了"回答"问题而编造)

六、核心概念四:幻觉和撒谎的区别

这个问题很关键!

6.1 什么是撒谎?

**撒谎需要"故意"和"知道真相"**。

撒谎的要素:
1. 知道真相
2. 故意说假话
3. 有欺骗的意图

6.2 大模型会撒谎吗?

不会!

因为:

撒谎需要的条件 大模型是否有
知道真相 ❌ 没有真假概念
故意行为 ❌ 只是根据概率生成
欺骗意图 ❌ 没有意识和意图

幻觉 ≠ 撒谎

6.3 对比表格

对比项 幻觉 撒谎
本质 模式混淆、概率预测 故意欺骗
是否知道真相 不知道(没有真假概念) 知道
是否有意图
是否可避免 可以减轻,难完全避免 可以选择不说
例子 把鲁迅的诗说成毛泽东的 明知道答案但故意说错

七、核心概念五:如何减轻幻觉

虽然幻觉很难完全避免,但可以减轻

7.1 从模型角度

方法一:提高训练数据质量
清洗训练数据:
- 去除错误信息
- 标注可靠来源
- 增加高质量数据
方法二:加入检索能力(RAG)

RAG = Retrieval-Augmented Generation(检索增强生成)

不是只靠模型记忆,而是:
1. 先去检索可靠资料
2. 基于检索到的资料回答

咱们用一张图来感受一下:

alt

有了外部知识源,幻觉大大减少

方法三:调整训练目标

让模型学会表达不确定性

没有调整:
"鲁迅写过《咏梅》,这首诗写于..."

经过调整:
"我不太确定鲁迅是否写过《咏梅》。
 根据《咏梅》这首词的记载,它是毛泽东的作品。
 训练数据中没有找到鲁迅写过《咏梅》的记录。"

7.2 从用户角度

技巧一:明确要求来源
❌:"告诉我关于XX的事实"
✅:"告诉我关于XX的事实,并给出来源"
技巧二:提供上下文
❌:"总结这篇文章"
✅:"根据以下内容总结:[文章内容]"
技巧三:要求验证
❌:"这个信息对吗?"
✅:"请验证这个信息,并告诉我你是如何验证的"
技巧四:分步确认
❌:"写一段关于XX的历史"
✅:
  "XX是真实存在的历史人物吗?"
  "如果存在,他的主要成就是什么?"
  "请基于可靠来源提供这些信息"

7.3 从应用角度

方法 说明
事实核查 输出后用其他工具验证
置信度标记 标出模型不确定的部分
多模型验证 用多个模型交叉验证
人工审核 重要内容必须有人工审核

八、幻觉的"正面"作用

说到这里,大家可能觉得幻觉完全是个坏事。

但!幻觉也有它的"正面"作用

8.1 创造性任务的"幻觉"

创意写作中,"幻觉"就是创造力:

用户:"写一个科幻故事,关于人类第一次接触外星人"

AI生成的"幻觉"
- 虚构的外星文明
- 不存在的科技
- 想象的对话和情节

这些在现实世界中"不存在",但在故事中很合理。

这种"幻觉" = 创造力

8.2 头脑风暴的"幻觉"

头脑风暴中,模型可以提出"不切实际"的想法:

问题:"如何解决交通拥堵"

AI的"幻觉"建议:
- 给每辆车装翅膀
- 建立地下管道网络
- 开发瞬间传送技术

虽然不现实,但可能启发真正的创新思路。

这种"幻觉" = 突破思维定式

8.3 总结:幻觉的两面性

场景 幻觉的作用 好坏
事实查询 编造错误信息 ❌ 坏
创意写作 创造新内容 ✅ 好
科学研究 虚假数据 ❌ 坏
头脑风暴 新奇想法 ✅ 好
编程 不存在的函数 ❌ 坏
艺术创作 创新表达 ✅ 好

**关键在于:你用什么场景,需要什么样的输出**。


九、本文小结

咱们今天主要讲了以下几点:

1. 什么是幻觉

  • 大模型生成的看似合理但实际错误的内容
  • 有三个特征:合理、流畅、自信但错误

2. 幻觉是怎么产生的

  • 根本原因:大模型没有真假概念,只有概率概念
  • 产生过程:模式混淆 + 概率预测
  • 主要原因:数据错误、模式混淆、知识缺失等

3. 幻觉的类型

  • 按内容:事实性、逻辑性、数值性、引用性
  • 按意识:无意识幻觉、有意识"幻觉"

4. 幻觉 vs 撒谎

  • 幻觉:无意图、无真假概念
  • 撒谎:有意图、知道真相
  • 大模型不会撒谎,只会产生幻觉

5. 如何减轻幻觉

  • 模型侧:提高数据质量、加入RAG、调整训练目标
  • 用户侧:要求来源、提供上下文、要求验证
  • 应用侧:事实核查、置信度标记、人工审核

6. 幻觉的两面性

  • 坏事:事实查询、科学研究、编程
  • 好事:创意写作、头脑风暴、艺术创作

十、今日思考题

今天留一个思考题:

如果让你设计一个"防幻觉"的AI系统,你会怎么做?

提示:从数据、模型、应用三个层面思考。

大家先思考思考,欢迎在评论区说说你的想法!

如果这篇文章对你有帮助,欢迎点赞关注,我会持续用大白话讲解复杂的技术概念!

系列文章进度:

  • ✅ 微调
  • ✅ Transformer
  • ✅ 思考原理
  • ✅ 训练流程
  • ✅ Token
  • ✅ 幻觉(本文)

下一期预告: 什么是提示词工程?如何写出更好的提示词?

本文由 mdnice 多平台发布

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐