前言

ChatGPT-4的发布在各个领域引起了巨大的轰动,因为它在人工智能技术中达到了一个新的高度。从ChatGPT发布以来,国内外都迎来了新一轮大模型浪潮。

常见问题解答

Q: GPT就是大模型吗?
Q: ChatGPT和大模型之间是什么关系?
Q: 大模型现状发展如何?

AI大模型概述

定义

AI大模型是"人工智能预训练/大数据"的简称,一种机器学习模型,包含"预训练/算法"和"大模型"两层含义。模型在大规模数据集上完成预训练后无需微调,或仅需少量数据微调,就能直接支撑各类应用。

参数规模

  • 大模型一般指千亿以上参数的模型
  • 标准不断升级,目前已有万亿参数以上模型
  • 大语言模型(Large Language Model,LLM)是针对语言的大模型

基础模型概念

2021年8月,李飞飞、Percy Liang等知名学者联合发布文章,提出"基础模型"概念:

  • 基于自监督学习的模型在学习过程中体现多方面能力
  • 为下游应用提供动力和理论基础
  • 作为智能化模型训练的底座

AI大模型发展历程

发展阶段

  1. 2012年 - 萌芽期
  2. 2016年 - AI 1.0时期
  3. 2022年 - ChatGPT带来的AI 2.0时期

参数飞跃

  • OpenAI GPT-4: 超过2000亿参数,多模态预训练模型
  • 谷歌 Palm-E: 5620亿参数,"通才"大模型,表现出优秀性能和应用价值

国内发展现状

  • 《中国人工智能大模型地图研究报告》发布
  • 各类AI大模型产品层出不穷
  • "千模大战"已经打响

AI大模型应用领域

AI大模型可以:

  • 学习和处理更多信息(图像、文字、声音等)
  • 通过训练完成各种复杂任务
  • 应用于智能语音助手、图像识别软件等

国内外大模型厂商

国外公司

公司 主要模型
OpenAI GPT系列
Google BERT、Transformer等
Facebook XLM-R、RoBERTa等
Microsoft Turing-NLG、DialogPT等
特斯拉 成立X.AI公司
苹果 Ajax框架、Apple GPT

国内公司

现状描述: “一而狂热,一而冷战”

主要动态
  • 2023年3月16日: 百度率先发布"文心一言",对标ChatGPT
  • 阿里巴巴: 开放"通义千问"
  • 其他厂商: 万维和商汤科技分别发布大模型产品
  • 行业大佬入局: 李开复、王小川、周伯文、王慧文等

大模型建设核心要素

必备条件

  1. 综合智力资源
  2. 算法人才
  3. 数据积累
  4. 产品先发优势

现实情况

只有大厂才有大量资金和人才发展力量,在算法、数据、算力方面有机会率先落地大模型。

大模型的测试与评价

测试维度

大模型的测试结果主要参考以下三个方面:

1. 模型基本特征

  • 模型在测试数据集上的表现
  • 基础性能指标评估

2. 模型鲁棒性

  • 模型对测量误差、对比样本等干扰的抵抗能力
  • 统计稳定性表现

3. 模型效率

  • 模型运行速度
  • 预测资源消耗

评价标准

大模型的评价主要参考以下四个方面:

1. 任务表现

  • 模型在特定任务上的性能表现

2. 优化能力

  • 模型在不同数据集上的适应性和表现

3. 公平性

  • 模型是否对所有用户群体公平
  • 避免偏见和歧视

4. 安全可靠性

  • 模型输出的安全性
  • 系统的稳定可靠性

常用测试和评价指标

指标名称 定义说明
准确率 模型预测正确的比例
精确率 模型预测为正值的样本中,真实正确的比例
召回率 真实正确的样本中,模型预测为正值的比例
F1分数 精确率和召回率的调和平均值
BLEU分数 机器翻译质量的评价指标
ROUGE分数 文本生成模型的评价指标

专业术语详解

1. 算法(Algorithm)

  • Transformer等算法代表了大模型的核心能力
  • Transformer的出现极大推动了AI发展
  • 未来在算法层面仍会有新的突破

2. 模型参数(Model Parameters)

  • 参数数量类比人类大脑的神经元数量
  • 参数增长反映了模型复杂度的提升
  • 参数数量影响模型处理信息的能力

3. 训练数据(Training Data)

  • 类比人类认知构建过程
  • 数据质量和数量决定模型的认知能力
  • 影响参数的数量和数值分布

4. Token

  • 中文:一个汉字对应一个token
  • 英文:一个单词可能对应多个token
  • 示例:“读书"→"读”+“书”(2个token)

5. 参数规模

  • B = Billion(十亿)
  • 175B = 1750亿参数(ChatGPT的大致参数规模)

6. 强化学习(Reinforcement Learning)

  • 通过外部激励校正学习方向的机器学习方法
  • 具备自适应学习能力

7. 基于人类反馈的强化学习(RLHF)

  • Reinforcement Learning from Human Feedback
  • 构建人类反馈数据集训练奖励模型
  • GPT-3后的核心技术,提升对话质量

8. 涌现能力(Emergence)

  • 模型达到一定规模后出现的新能力
  • 在多种任务中表现显著提升
  • 规模效应带来的质变

9. 泛化(Generalization)

  • 模型在新场景下的适应能力
  • 通过迁移学习、微调等手段实现

10. 微调(Fine-tuning)

  • 针对预训练模型,使用业务数据进行进一步训练
  • 提升在特定任务上的准确度
  • 改善模型泛化能力

11. 指令微调(Instruction Tuning)

  • 使用指令形式的数据集进行模型优化
  • 提升模型理解和执行指令的能力

12. 思维链(Chain-of-Thought, CoT)

  • 让大语言模型逐步推理问题
  • 通过分步分析得出正确答案
  • 显著提升复杂问题的解决能力
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐