大语言模型常存在偏见、毒性和知识错误等问题。传统修正方法如重新预训练和微调存在成本高、效率低或影响其他能力等局限。模型编辑技术通过局部修改模型参数,可精准修正错误、补充新知识,同时保持原有性能。该方法分为外部拓展法和内部修改法,需满足准确性、泛化性、可迁移性、局部性和高效性等关键性质,为大语言模型的快速精准修正提供了新思路。


大语言模型有时候会给出一些不理想的答案,比如带有偏见毒性或者知识错误

  • 偏见:模型输出带有刻板印象或不公平的观点。
  • 毒性:模型输出带有攻击性或有害内容。
  • 知识错误:模型给出的答案与事实不符。比如有人问“斑马的皮肤是什么颜色?”,模型回答“肉色”,但实际上是黑白色,这就是知识错误。

如果这些问题不纠正,就可能误导使用者。目前常见的两种修正方法是:

  1. 重新预训练:用干净、正确的数据重新训练模型,从根本上修复问题。但这需要大量的数据清洗和巨大的算力成本,而且知识更新很快,数据也不可能一直完美。

  2. 微调:在现有模型上,针对错误进行参数调整。虽然成本比重新预训练低,但容易出现过拟合或遗忘旧知识的问题,也很难仅靠少量数据解决偏见和错误。

  3. 模型编辑:模型编辑指的是对已经训练好的大语言模型(或其他神经网络模型)进行局部修改或更新,以修正错误、补充新知识或改变特定行为,而不需要重新从头训练整个模型。

    可以把它理解为给模型“打补丁”或“升级技能”,主要目标是让模型在特定问题上输出正确答案,同时尽量不影响其他已有能力

1 模型编辑思想

在《三体 2:黑暗森林》中,面壁者希恩斯和他的妻子共同研发了一种名为“思想钢印”的设备,目的是向太空军灌输“人类必胜”的坚定信念。这个机器的原理是让接受者在接触到特定信息时,修改大脑处理过程,使之输出正向答案。模型编辑的思想大致与此相似,旨在通过增加或修改模型参数,快速有效地改变模型行为和输出。

模型的学习过程其实和人类学习很像。

  • 预训练可以类比为我们在日常生活中不断接触各种知识,逐渐建立起完整的知识体系。
  • 微调就像我们在某个学科上进行深入学习,提升在特定领域的能力。
  • 模型编辑则好比我们在交流中发现自己理解有误,通过讨论及时修正对某个知识点的错误认知。

这些方式都能用来“纠正大语言模型”。不同于预训练和微调,模型编辑更强调快速、精准地修正模型在某些具体知识点上的错误。

2 模型编辑定义

模型编辑的目标可被归纳为:修正大语言模型使其输出期望结果,同时不影响其他无关输出。

实际的模型编辑过程远比理论定义复杂。这主要源于知识的内在关联性:当修改模型对某一特定知识点的认知时,由于该知识点可能与其它知识点相关联,所以可能会影响模型对其它相关知识点的理解,从而产生” 牵一发而动全身”的效应。因此,如何精确控制模型编辑的范围成为一个关键挑战。精准可控的模型编辑技术需要满足一系列性质。这些性质不仅反映了模型编辑的复杂性,也为评估和改进编辑方法提供了重要指标。接下来对模型编辑的关键性质进行介绍。

3 模型编辑性质

模型编辑的首要目标是纠正模型的错误回答,使其给出我们期望的答案。在此基础上,考虑到知识的内在关联性,需要进一步精准控制模型编辑的范围。除此之外,还要保证模型编辑的效率。因此,需要从多个方面控制模型编辑过程。

在评价模型编辑方法时,通常会从五个方面来衡量:

1. 准确性
准确性衡量编辑是否真正修正了目标知识点。比如,若我们要修正“斑马的皮肤是什么颜色?”这个问题,编辑后的模型能正确回答“黑色”,就说明编辑是准确的。准确性是最基本的要求,只有保证了这一点,才能谈其他指标。

2. 泛化性
泛化性关注模型能否把修正过的知识应用到不同表述的同类问题上。比如,除了“斑马的皮肤是什么颜色?”,模型还要能正确回答“剃毛后的斑马是什么颜色?”、“斑马的肤色是什么?”等语义相近的问题。如果这些问题的答案都一致,说明模型具有良好的泛化性。

3. 可迁移性
可迁移性是指模型能否把修正后的知识推广到相关但不完全相同的问题上。比如,“皮肤是黑色的马叫什么?”(反向问题)、“斑马皮肤颜色和毛发一样吗?”(推理问题)、“黑白条纹的马皮肤是什么颜色?”(实体替换问题)。这些问题虽然与“斑马皮肤颜色”有关,但答案并不是“黑色”。若模型能正确作答,说明具备较强的可迁移性。

4. 局部性
局部性要求编辑仅影响目标知识点,而不干扰其他无关问题。比如,编辑后模型仍然要能正确回答“赤兔马的皮肤是什么颜色?”、“斑马吃什么?”等和知识点无关的问题。保持局部性可以避免“牵一发而动全身”的副作用。

5. 高效性
高效性强调编辑所需的时间和资源成本。在实际应用中,模型可能需要频繁更新和修正,因此编辑过程必须快速且节省资源。有的方法支持批量并行编辑,有的方法则需要逐个处理。高效性直接决定了方法能否大规模应用。

综合来看,一个理想的模型编辑方法,应该在保证准确性的前提下,尽可能提升泛化性、可迁移性和局部性,同时保持高效,才能真正兼顾实用性和可靠性。

4 模型编辑经典方法

在冒险游戏里,勇者升级可以有两种方式:

  • 外部改造:通过购买新的装备和道具,获得额外的能力,同时保留原有技能。
  • 内部改造:通过锻炼自身,提升智力、体力、法力等属性,从而在本质上变得更强。

如果把大语言模型类比为游戏中的勇者,那么模型编辑就像是它的升级方式,也可以从这两个角度来理解。模型编辑方法大致分为:

  • 外部拓展法:设计额外的训练机制,让模型在保持原有知识的基础上,学习和吸收新的信息。
  • 内部修改法:直接调整模型内部的某些层或神经元,实现对输出的精确控制。

如图所示,外部拓展法主要包括知识缓存法附加参数法;内部修改法则包括元学习法定位编辑法

外部拓展法

外部拓展法的核心思路,是把新知识存放在外部组件里(比如额外参数或知识库),再和原始模型一起使用。这样既能保存原有知识,又能快速补充新信息,而且不用改动原始模型的参数,比较安全。根据外部组件是否直接参与推理过程,可以分为两类:知识缓存法附加参数法

  • 知识缓存法:相当于给模型准备一本“技能书”。需要时,模型先判断问题是否和缓存里的知识相关,如果相关,就从缓存里取出答案,结合输入一起推理;不相关的问题仍由原始模型回答。缓存里的知识可以用三种方式存储:
  1. 事实知识(问答对,适合明确的问题);
  2. 自然语言补丁(If…then…,类似提示词,便于修改和删除);
  3. 正则表达式(通过文本匹配修改,但灵活性差,现在很少用)。

知识缓存法的好处是高效、简单,但缺点是新知识并没有真正融入模型,而是“外挂”式存在。为此,才有了进一步的附加参数法来改进。

内部修改法

内部修改法与外部拓展法不同,它不依赖额外的存储空间,而是直接修改模型自身的内部参数,把新知识“写进”模型中。这样不仅能提升模型在特定任务上的表现,还能增强模型的自我学习和适应能力。内部修改法主要分为两类:元学习法定位编辑法

1. 元学习法

元学习的核心思想是“学习如何学习”。在模型编辑中,它被扩展为“学习如何编辑”。具体来说,模型会从大量编辑任务中提取出一些通用的规律,这些规律被称为元知识。有了元知识,模型在遇到新的编辑任务时,只需要少量样本就能快速完成修正。

元知识可以以不同形式存在,比如:

  • 优化器参数:通过优化器学习如何更高效地更新参数,但这种方法在大模型上开销较大;
  • 超网络:利用一个额外的网络来预测参数更新值,同时保证准确性和局部性;
  • 梯度低秩分解:将复杂的梯度更新分解为更小的部分,再由超网络生成修正值,从而以更低成本完成编辑。

总结来说,元学习法的优点是能快速适应新任务,节省计算资源;缺点是训练过程复杂,在大规模模型上依然面临高成本和不稳定性问题。

2. 定位编辑法

与元学习法不同,定位编辑法只修改模型中与目标知识最相关的局部参数,而不是全局参数。它的关键是先找到知识在模型中的存储位置,再进行针对性修改。

研究发现,大语言模型中的前馈网络(FFN)像一个键值存储体

  • Key(键)用来表示输入语境的特征(如句子前缀);
  • Value(值)对应下一个词的预测结果。
    也就是说,模型就是通过键值匹配来“记忆”知识的。

基于这一点,研究者提出了多种方法:

  • KN (知识神经元):把前馈网络中的中间神经元视为“知识单元”,通过分析神经元对某个知识点预测的贡献,找到关键神经元并直接修改,从而完成编辑。
  • ROME:通过因果跟踪实验进一步验证了知识存储机制,并提出直接更新整个前馈模块的参数,而不仅仅是单个神经元。这种方法在准确性、泛化性和局部性上表现都很好。
  • MEMIT:在 ROME 的基础上扩展,可以一次性对成千上万条知识进行大规模编辑。

总结:定位编辑法能够在保持模型整体性能的同时,对特定知识点进行精准修改。它兼顾准确性、泛化性和局部性,目前是大语言模型编辑研究中非常有前景的一类方法。


学习大模型 AI 如何助力提升市场竞争优势?

随着新技术的不断涌现,特别是在人工智能领域,大模型的应用正逐渐成为提高社会生产效率的关键因素。这些先进的技术工具不仅优化了工作流程,还极大地提升了工作效率。然而,对于个人而言,掌握这些新技术的时间差异将直接影响到他们的竞争优势。正如在计算机、互联网和移动互联网的早期阶段所展现的那样,那些最先掌握新技术的人往往能够在职场中占据先机。

掌握 AI 大模型技能,不仅能够提高个人工作效率,还能增强在求职市场上的竞争力。在当今快速发展的技术时代,大模型 AI 已成为推动市场竞争力的重要力量。个人和企业必须迅速适应这一变化,以便在市场中保持领先地位。

如何学习大模型 AI ?

在我超过十年的互联网企业工作经验中,我有幸指导了许多同行和后辈,并帮助他们实现个人成长和学习进步。我深刻认识到,分享经验和知识对于推动整个行业的发展至关重要。因此,尽管工作繁忙,我仍然致力于整理和分享各种有价值的AI大模型资料,包括AI大模型入门学习思维导图、精选学习书籍手册、视频教程以及实战学习等内容。通过这些免费的资源,我希望能够帮助更多的互联网行业朋友获取正确的学习资料,进而提升大家的技能和竞争力。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
在这里插入图片描述
在这里插入图片描述

一、初阶应用:建立AI基础认知

在第一阶段(10天),重点是对大模型 AI 的基本概念和功能进行深入了解。这将帮助您在相关讨论中发表高级、独特的见解,而不仅仅是跟随他人。您将学习如何调教 AI,以及如何将大模型与业务相结合。

主要学习内容:

  • 大模型AI的功能与应用场景:探索AI在各个领域的实际应用
  • AI智能的起源与进化:深入了解AI如何获得并提升其智能水平
  • AI的核心原理与心法:掌握AI技术的核心概念和关键原理
  • 大模型应用的业务与技术架构:学习如何将大模型AI应用于业务场景和技术架构中
  • 代码实践:向GPT-3.5注入新知识的示例代码
  • 提示工程的重要性与核心思想:理解提示工程在AI应用中的关键作用
  • Prompt的构建与指令调优方法:学习如何构建有效的Prompt和进行指令调优
  • 思维链与思维树的应用:掌握思维链和思维树在AI推理和决策中的作用
  • Prompt攻击与防范策略:了解Prompt攻击的类型和如何进行有效的防范
    在这里插入图片描述
    在这里插入图片描述
    、、、

二、中阶应用:深入AI实战开发

在第二阶段(30天),您将进入大模型 AI 的进阶实战学习。这将帮助您构建私有知识库,扩展 AI 的能力,并快速开发基于 agent 的对话机器人。适合 Python 和 JavaScript 程序员。

主要学习内容:

  • RAG的重要性:理解RAG在AI应用中的关键作用
  • 构建基础ChatPDF:动手搭建一个简单的ChatPDF应用
  • 检索基础:掌握信息检索的基本概念和原理
  • 理解向量表示:深入探讨Embeddings的原理和应用
  • 向量数据库与检索技术:学习如何使用向量数据库进行高效检索
  • 基于 vector 的 RAG 实现:掌握基于向量的RAG构建方法
  • RAG系统的高级扩展:探索RAG系统的进阶知识和技巧
  • 混合检索与RAG-Fusion:了解混合检索和RAG-Fusion的概念和应用
  • 向量模型的本地部署策略:学习如何在本地环境中部署向量模型
    在这里插入图片描述

三、高阶应用:模型训练

在这个阶段,你将掌握模型训练的核心技术,能够独立训练和优化大模型AI。你将了解模型训练的基本概念、技术和方法,并能够进行实际操作。

  • 模型训练的意义:理解为什么需要进行模型训练。
  • 模型训练的基本概念:学习模型训练的基本术语和概念。
  • 求解器与损失函数:了解求解器和损失函数在模型训练中的作用。
  • 神经网络训练实践:通过实验学习如何手写一个简单的神经网络并进行训练。
  • 训练与微调:掌握训练、预训练、微调和轻量化微调的概念和应用。
  • Transformer结构:了解Transformer的结构和原理。
  • 轻量化微调:学习如何进行轻量化微调以优化模型性能。
  • 实验数据集构建:掌握如何构建和准备实验数据集。
    在这里插入图片描述
    在这里插入图片描述

四、专家应用:AI商业应用与创业

在这个阶段,你将了解全球大模型的性能、吞吐量和成本等方面的知识,能够在云端和本地等多种环境下部署大模型。你将找到适合自己的项目或创业方向,成为一名被AI武装的产品经理。

  • 硬件选型:学习如何选择合适的硬件来部署和运行大模型AI。
  • 全球大模型概览:了解全球大模型的发展趋势和主要玩家。
  • 国产大模型服务:探索国产大模型服务的优势和特点。
  • OpenAI代理搭建:学习如何搭建OpenAI代理以扩展AI的功能和应用范围。
  • 热身练习:在阿里云 PAI 上部署 Stable Diffusion
  • 本地化部署:在个人计算机上运行大型模型
  • 私有化部署策略:大型模型的内部部署方法
  • 利用 vLLM 进行模型部署:高效部署大型模型的技术
  • 案例分析:如何在阿里云上优雅地私有部署开源大型模型
  • 开源 LLM 项目的全面部署:从零开始部署开源大型语言模型
  • 内容安全与合规:确保AI应用的内容安全和合规性
  • 算法备案流程:互联网信息服务算法的备案指南
    在这里插入图片描述

通过这些学习内容,您不仅能够掌握大模型 AI 的基本技能,还能够深入理解其高级应用,从而在市场竞争中占据优势。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你无疑是AI领域的佼佼者。然而,即使你只能完成60-70%的内容,你也已经展现出了成为一名大模型AI大师的潜力。

最后,本文提供的完整版大模型 AI 学习资料已上传至 CSDN,您可以通过微信扫描下方的 CSDN 官方认证二维码免费领取【保证100%免费】在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐