文章系统介绍了大模型微调技术的发展历程,从2018年全参数微调到2023年的偏好对齐技术,包括特征提取、Adapter、LoRA、提示微调、指令微调等方法。分析了各种微调技术的原理、特点和适用场景,解释了微调为何在大模型时代取代从零训练,并提供了根据实际业务需求选择合适微调方法的实用建议。

前排提示,文末有大模型AGI-CSDN独家资料包哦!

现在的大语言模型发展得非常快,从几亿参数到千亿参数,不仅模型越来越大,能力也越来越强。但是在实际工作中,我们很少会从零开始训练一个这样的巨无霸模型,因为那样的成本和资源需求实在太高了。更多的时候,我们会先用一个现成的强大模型,然后根据自己的需求对它做一些“微调”,让它更懂我们的领域、更符合我们的业务和价值观。

微调并不是一开始就有这么多方法,它的技术路线也是一步步发展起来的。

为了带着思考去看接下来的内容,我们先抛出三个问题:

1.在大模型时代,为什么微调几乎取代了从零训练?

2.现在主流的大模型微调技术有哪些,它们的原理和特点有什么不同?

3.如果是落地到实际业务,我们该怎么选择合适的微调方法?

1. 微调的背景与动机

说到微调,首先要想清楚:我们为什么不直接训练一个新模型,而是要在别人已经训练好的模型上“动手脚”?最直接的原因就是——成本。训练一个千亿参数的模型,不仅需要超级昂贵的硬件,还得准备海量的高质量数据。对绝大多数企业和个人来说,这是不可能完成的任务。

第二个原因是,通用模型虽然强大,但它并不一定懂你所在的行业,比如医疗、法律、金融。这就像一个见多识广的人,可能对很多话题都能聊几句,但在某些专业领域还是需要补课。

最后,还有一个很现实的考虑:数据安全和合规。很多公司希望模型能按照自己的价值观、安全要求和业务逻辑来回答问题,这就需要对模型进行定制化训练。

换句话说,微调的出现,是为了用更低的成本、更少的资源,让模型更懂你、更安全、更专业。

2. 技术发展时间线与主要方法

2.1 2018 年及以前:全参数微调

早期的做法很直接——把整个模型的参数全部拿出来训练。这种方式简单粗暴,效果也非常好,但代价就是显存消耗大、训练时间长、算力要求高,基本上是科研机构或者小模型时代的标配。

如果用几句话总结这种方法,可以这么看待:

·更新全部参数,效果最佳

·显存和算力需求高

·适合小模型或科研任务

2.2 2019 年:特征提取

这个阶段的思路是,不去动模型内部的结构,而是把它当作一个固定的“特征提取器”,用它处理数据,然后在输出的特征上接一个新的分类器或其他下游模型。这样训练很快,成本也低,但对于需要深度理解和生成的任务就不太够用了。

简而言之,它的特点是:

·冻结主干网络

·快速训练、低成本

·复杂任务适配能力弱

2.3 2019 年底:Adapter 方法

研究者发现可以在 Transformer 的每一层之间加一个小模块,这个模块的参数很少,但却能学习特定任务的特征。训练时只更新这些模块,主干网络保持不动。这种方法既节省资源,又方便在多个任务之间切换不同的 Adapter。

用一行话概括 Adapter:

·在模型层间加入可训练模块

·参数更新量小,可多任务复用

·可能带来推理延迟

2.4 2021 年初:LoRA

LoRA 是一个非常有影响力的方法,它把需要更新的大矩阵分解成两个小的低秩矩阵,只训练这部分参数,最后还能把它们合并回原模型里,部署起来很方便。它的出现,让大模型的定制化变得更轻量、低成本,也因此在开源社区大火。

总结一下 LoRA 的优势和特点:

·低秩矩阵分解,只更新小部分参数

·显存需求低,部署方便

·社区应用广泛

2.5 2021 年中:提示微调

提示微调的思路是,模型本身不动,只在输入端加一些可学习的提示向量,让模型的行为发生变化。它的好处是训练极快、成本极低,但在复杂生成任务上的效果一般。

一句话描述提示微调:

·训练少量提示向量

·速度快、成本低

·复杂任务表现有限

2.6 2022 年:指令微调

指令微调的重点是,让模型通过大量高质量的指令-回答数据来学会遵循自然语言的指令。这一步对大模型变得更易用、更通用起到了关键作用,ChatGPT 的成功也离不开这一技术。

概括来说,指令微调就是:

·用指令-回答数据训练

·提升模型遵循指令和通用交互的能力

2.7 2022 年末至 2023 年:偏好对齐

在模型能理解指令之后,人们还希望它更符合人类的价值观和偏好。这就有了 RLHF 和 DPO 等方法。它们用人类的反馈来调整模型的回答倾向,从而提升安全性和用户体验。

简单理解就是:

·RLHF:监督微调 + 奖励模型 + 强化学习

·DPO:直接优化偏好差异,跳过奖励模型

·提升模型安全性和价值观一致性

3. 方法对比

不同的微调方法,就像不同的改装方式,各有优缺点。把它们放在一起对比,可以更直观地看到适用场景和成本差异:

最后,我们来回答一下文章开头提出的问题:

1.在大模型时代,为什么微调几乎取代了从零训练?

因为它能在保留预训练模型通用能力的同时,大幅降低计算和数据成本,让定制化更容易实现。

2.现在主流的大模型微调技术有哪些,它们的原理和特点有什么不同?

从早期的全参数微调,到特征提取、Adapter、LoRA、提示微调,再到指令微调和偏好对齐,它们在参数更新量、计算资源和适用场景上各有不同。

3.如果是落地到实际业务,我们该怎么选择合适的微调方法?

o数据多、预算充足且精度要求高:全参数微调

o资源有限但要求生成质量高:LoRA + 指令微调

o多任务共存:Adapter

o快速低成本适配:Prompt Tuning

o需要安全和价值观对齐:RLHF 或 DPO

读者福利:倘若大家对大模型感兴趣,那么这套大模型学习资料一定对你有用。

针对0基础小白:

如果你是零基础小白,快速入门大模型是可行的。
大模型学习流程较短,学习内容全面,需要理论与实践结合
学习计划和方向能根据资料进行归纳总结

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

请添加图片描述

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

这里我们能提供零基础学习书籍和视频。作为最快捷也是最有效的方式之一,跟着老师的思路,由浅入深,从理论到实操,其实大模型并不难

在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐