在这里插入图片描述

0. 概述

大模型命名有点道道,这里就说道说道:

  • Base:毛坯房,只会 “续写文字”,不会听话。
  • Instruct:精装修,听懂人话、能对话、能干活,日常 90% 场景用它。
  • Thinking:带 “大脑思考室” 的增强版,专门做复杂推理、数学、逻辑、长思考,算力 / 参数开销更大。
  • Chat:对话专用,在 Instruct 基础上再优化

1. Base 模型(基座 / 原生模型)

  • 全称:Base Model / Pre-trained Model
  • 来源:只做过海量无标注文本预训练(看书、网页、代码),没做过人类指令对齐。
  • 能力:
    • 擅长:文本续写、补全、风格模仿、语言建模
    • 不擅长:听不懂指令、不会问答、不会按要求做事
  • 输出:你给一句开头,它顺着往下写,不会 “理解你的意图”。
  • 用途:
    • 供研究、二次微调(做垂直领域模型)
    • 做 LoRA、全量微调的基底
  • 命名常见后缀:-base、-pretrain

例子:Llama 3-8B-Base、Qwen3-30B-Base

2. Instruct 模型(指令模型 / 对话模型)

  • 全称:Instruct-tuned Model / Chat Model
  • 来源:在 Base 基础上做了:
    • SFT 监督微调(学习人类问答 / 指令格式)
    • 常见再加 RLHF/DPO(对齐人类偏好,更安全、更有用)
  • 能力:
    • 听懂自然语言指令(写文案、总结、代码、翻译、对话)
    • 有上下文、有角色、有格式约束
  • 输出:直接给答案 / 结果,不废话、不瞎续写。
  • 用途:
    • 聊天机器人、API 服务、日常工具、办公助手
    • 绝大多数用户、产品、部署都用 Instruct
  • 命名常见后缀:-instruct、-chat、-it

例子:Llama 3-8B-Instruct、Qwen3-30B-Instruct、GPT-3.5-turbo(本质就是 instruct)

3. Thinking 模型(思考模型 / 推理增强模型)

  • 不是标准学术名,是厂商为 “强推理” 单独分出的版本,常见于 MoE 架构(比如你问的 A3B 系列)。
  • 来源:
    • 通常基于 Instruct 再增强:长推理链、CoT(思维链)、多步思考
    • MoE 模型里:思考模式会激活更多专家 / 更多参数
      • 例如:普通模式 A3B(激活 3B),思考模式激活更多(A22B 等)
  • 能力:
    • 极强:数学、逻辑、代码、规划、推理、多步解题、长文本分析
    • 会 “先思考再回答”,展示中间步骤(…)
  • 缺点:
    • 生成更慢、token 更多、算力 / 显存更高
    • 简单问题反而没必要用
  • 用途:
    • 数学竞赛、代码 debug、复杂逻辑推理、科研推导、长决策链
    • 命名常见后缀 / 关键词:-thinking、-reasoning、-max、-plus、-deepseek-r1 这类推理向

例子:Qwen3-Thinking、DeepSeek-R1、Kimi 思考模式、部分闭源 “深度思考版”

4. Chat 模型(对话专用,在 Instruct 基础上再优化)

  • 和 Instruct 高度重叠,但更偏多轮对话、人格、记忆、闲聊
  • 常见后缀:-chat
    • 例:Llama-3-8B-Chat、Qwen-Chat

5. A3B

还有比如名称里面带A3B,指Activated 3 Billion(激活 30 亿参数)

5.1. A3B 的核心含义

A = Activated(激活):表示 MoE 架构中动态参与计算的专家子网络参数
3 = 3 Billion(30 亿):每次推理仅激活约 30 亿参数,通常占总参数的10% 左右
B = Billion(十亿):参数数量单位,与模型名称中常见的 “3B”“7B” 含义一致

5.2. A3B 的技术背景与应用

  • MoE 架构基础:混合专家模型将总参数拆分为多个 “专家” 子网络,每次推理仅选择少量专家参与计算,而非全部参数同时工作
  • 首创与推广:由通义千问 Qwen3 系列模型首创(如 Qwen3-30B-A3B),后被 Kimi(Moonlight-16B-A3B)、百度(ERNIE-4.5-VL-28B-A3B)等厂商采用
  • 命名规范扩展:已形成统一范式,如 Qwen3-235B-A22B 表示总参数 2350 亿、激活 220 亿参数
Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐