LLaMa系列模型

  • 羊驼模型(鼻祖是LLaMa模型,Facebook公司开源模型):即将成为大模型的安卓,国内95%的大模型都是羊驼套壳。
  • GPT系列(OpenAI公司):相当于大模型的iOS(不开源)。

LLaMa模型结构:前面的词预测后面的词,经典的解码结构。位置编码用的是旋转自编码。

大语言模型为什么取名为LLaMa(美洲鸵)?
LLM发音困难。两个LL跟绕口令一样挑战舌头。大家想给它加点原音,帮助发音。有人加了A,就是LLaMa。

  1. LLaMa是2023年Meta发布的基础LLM模型,该模型有四个版本,分别是7B、13B、33B、65B参数的模型。(LLaMa模型是从零开始训练的基础模型,国内大多数模型都是套壳LLaMa模型)

2.模型的优点:

  • 开源。相比之前的大模型,LLaMa完全是在公共开源预训练数据上训练(通用性比较强,没有使用封闭的数据)
  • 推理效率也是LLaMa的一个亮点,可以在单卡V100完成推理(降低了硬件使用门槛,让大模型平民化,训练模型的成本大大降低)。

3.模型的训练和数据:
65B的模型使用2048块A100 80G的GPU,训练21天左右。(训练成本还是比较高的,训练的数据集同GPT一样)


LLaMa模型训练的数据集
  1. 模型下载地址:https://huggingface.co (国内镜像网站:https://hf-mirror.com/models

Alpaca模型

  • Alpaca是斯坦福从Meta的LLaMA 7B微调而来的全新模型(套壳是微调模型,LLaMA是全调的基础模型),仅用了52k数据,性能约等于GPT-3.5。
  • 训练成本奇低,不到600美元。(大模型屌丝化)
  • 在8个80GB A100 上训练了3个小时,不到100美元;
  • 生成数据使用OpenAl的API,500美元。(正常是人工来标注数据,人工的成本很高;这里数据标注使用了OpenAl的接口,问题问ChatGPT3,用它的回答作为标注数据来进行微调,训练出Alpaca模型)

国内很多大模型都是学Alpaca模型的玩法,套壳LLaMA模型低成本训练出自己的模型。


Alpaca模型的训练流程

Alpaca模型使用了GPT3来标注数据

Vicuna模型

Vicuna模型简介
Vicuna模型训练流程

Vicuna模型使用了GPT4来做评估(效果更好)

GPT5短时间暂时不会有,因为GPT4已经突破了人类现在的硬件资源的一个极限。

羊驼系列模型对比

羊驼系列模型对比

华驼大模型(国内的医疗大模型)

华驼大模型

百川大模型(搜狗王小川搞的大模型)

LLaMa + 中文数据

业内有句俗话:一开源就自主研发,不开源就卡脖子

LLaMa2的提升

模型的提升一般模型本身没有多大的进化, 主要的提升是堆数据堆算力,使模型进行进化。


LLaMa2.0的训练也使用了ChatGPT的训练那套方法:

  • 第一步:首先对LLaMa模型通过问答对进行有监督的训练
  • 第二步:训练一个排序模型(就是通过人来标注这个模型输出的数据,让这个模型输出的答案更加符合人类的认知;通过人来对这些输出的结果打分,来调整这个模型,让这个模型的输出结果更加符合人的认知);这个强化模型,就相当于具备了人的情商,理解了人类的喜好。
  • 第三步:用具备人类喜好的这个模型,再来去微调LLaMa,让这个LLaMa模型输出的结果更加符合人的认知(相当于具备了情商),这样就训练出LLaMa2.0。

微调的效果为什么会好?
原生的基础LLaMa用的语料是通用语料。在自己的数据上进行微调,让模型能够满足自己的需求。微调的本质并不是能把模型效果变好,微调的目的是让模型更适应于我们的数据。

完整的大模型课程:《AI大模型训练营》


最后编辑于:2025-08-30 16:29:11


喜欢的朋友记得点赞、收藏、关注哦!!!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐