大模型学习到的知识到底存储在哪里?一文搞懂大模型知识存储机制!
本文通过实验揭示了大语言模型知识主要存储在中间层前馈网络中,而非注意力层。注意力层负责信息搬运整合,前馈层则作为"键值存储器"长期存放知识。模型通过"注意力层搬运信息→前馈层调用知识→输出层组织结果"的流程工作,这一发现对理解和编辑大模型具有重要意义
简介
本文通过实验揭示了大语言模型知识主要存储在中间层前馈网络中,而非注意力层。注意力层负责信息搬运整合,前馈层则作为"键值存储器"长期存放知识。模型通过"注意力层搬运信息→前馈层调用知识→输出层组织结果"的流程工作,这一发现对理解和编辑大模型具有重要意义。
大脑的记忆存储机制一直是人类探索的谜题,而在人工智能领域,大语言模型的知识存储与回忆方式同样亟待研究。要理解这一问题,首先需要明确知识在模型参数中的存储位置。通过知识定位,可以揭示模型的内部运作逻辑,这也是理解和编辑模型的关键。
1 知识存储位置
根据的研究表明,知识主要存储在模型中间层的全连接前馈层(Feed-Forward Layer)。这一结论来自两类实验:因果跟踪实验与阻断实验。
1) 因果跟踪实验
ROME 采用控制变量的方法,通过“正常推理—>干扰推理—>恢复推理”三步流程,探索不同模块对知识回忆的作用:
-
正常推理:输入问题 q = (s, r),保存模型在未受干扰时的内部状态,用作对照。(见下图)
-
干扰推理:在主体 s 的嵌入向量上加入噪声,破坏输入表示,使模型处于混乱状态。(见下图)
-
恢复推理:逐层逐 Token 恢复干净的输出向量,并观察答案预测概率的变化。概率增量被称为“因果效应”,用于衡量该位置对答案的贡献。(如下图)
例如,对问题“斑马的肤色是”进行测试时,模型原本输出“肉色”。在干扰输入后,模型失去正确回忆能力。此时,若仅恢复“马”这个 Token 在某一层的输出,就会显著提升答案概率,说明该位置对知识回忆起关键作用。统计大量实验后,ROME 发现:
- 中间层 Transformer 在处理主体最后一个 Token s(−1) 时因果效应最强;
- 全连接前馈层是这种因果效应的主要来源,而注意力层的贡献主要集中在模型末尾层。
因此,ROME 推测知识的核心存储位置在中间层的前馈网络。
2)阻断实验
为了进一步验证全连接前馈层的主导作用,ROME 在恢复推理时人为阻断部分计算路径:
- 若冻结后续前馈层,模型的因果效应几乎消失;
- 若冻结注意力层,因果效应仅有轻微下降。
结果表明,大语言模型的知识主要存储于中间层的全连接前馈层,尤其是在处理主体最后一个 Token 时,其作用最为显著。
2 知识存储机制
明确了知识存储的位置之后,自然引出下一个关键问题:大语言模型具体是如何存储这些知识的?只有了解知识存储的机制,才能有效地设计编辑方法。基于知识定位的实验结果以及过去的相关研究,ROME 汇总了现有的观点,对知识存储机制做出了合理的假设。
- 主要存储位置:中间层的全连接前馈层(Feed-Forward Layer)
-
多项实验证明,知识更可能存储在 中间层的 MLP(前馈网络)权重中。
-
这些前馈层可以被看作一种“键值存储器”:输入某个主体的向量时,它会从参数中“查出”与之对应的知识,并写入残差流中。
注释:残差流(Residual Stream)是指通过残差连接在神经网络层之间传播的信息流。可以想象注意力层和全连接前馈层分别以不同方式向残差信息流中更新信息。
- 注意力层(Attention)的作用:搬运和整合信息
- 注意力层并不是主要的“知识仓库”,它更像是“信息传输网络”。
- 每个注意力头会根据 Query-Key 的匹配来决定信息的流向,把相关的内容从残差流中拎出来或传递到下一个位置。
- 换句话说,它负责“把知识用起来”,而不是“保存知识”。
- 靠近输出层:更多是知识的组织与表达
- 模型的末尾层主要负责把前面层提取和整合的知识,转换成最终的预测结果。
- 这里的参数也会影响答案,但更多是偏向“表达”而非“存储”。
- 整体视角:分布式存储
- 知识不会严格地存放在某一个单独的参数或层里,而是以分布式的方式编码在网络权重中。
- 不过,从因果实验来看,中间层的前馈网络是“存储热点”,在查询主体最后一个 Token 时作用最明显。
3 总结一下
- 注意力层 (Attention)
- 主要负责 信息搬运和整合。
- 通过 Query-Key 找到相关信息,通过 Value 把信息复制到残差流中。
- 相当于“信息的分发器”,决定模型在某个上下文中应该关注哪些内容。
- 前馈层 (Feed-Forward Layer, FFN)
- 是知识的主要 存储单元。
- 可以看作 键值存储器 (Key-Value Store),长期存放模型学习到的知识。
- 当输入出现时,FFN 会从中“检索”相关信息,并注入到残差流中。
- 层与层之间的关系
- Transformer 的多层结构并不是严格顺序依赖的,不同层次可能有相似功能。
- 但整体上,模型通过“注意力层搬运信息 → 前馈层调用知识 → 输出层组织结果”的流程来工作。
- 整体逻辑
- 输入层:收集主体信息。
- 中间层:存储并调用知识。
- 输出层:整理并生成最终答案。
所以在 Transformer 中,注意力层像“搬运工”,前馈层像“仓库”,残差流像“运输通道”,最终通过多层协同完成知识调用和输出。
AI大模型学习路线
如果你对AI大模型入门感兴趣,那么你需要的话可以点击这里大模型重磅福利:入门进阶全套104G学习资源包免费分享!
这份完整版的大模型 AI 学习和面试资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】
这是一份大模型从零基础到进阶的学习路线大纲全览,小伙伴们记得点个收藏!
第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;
第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;
第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;
第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;
第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;
第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;
第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。
100套AI大模型商业化落地方案
大模型全套视频教程
200本大模型PDF书籍
👉学会后的收获:👈
• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;
• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;
• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;
• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。
LLM面试题合集
大模型产品经理资源合集
大模型项目实战合集
👉获取方式:
😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓
更多推荐
所有评论(0)