【必收藏】AI大模型70个核心术语全解析:从入门到精通,构建完整知识框架
大模型的核心逻辑是“海量数据 + Transformer + Scaling + 对齐”,70个术语串起来就是从“预训→SFT→RLHF/DPO→高效推理→RAG/Agent→多模态/具身”这条技术主线。你现在最困惑/最想深入哪个方向的术语?比如Agent实现、RAG优化、量化部署、还是MoE/长上下文?告诉我,我可以展开更细的实战案例和代码思路。
·
【必收藏】AI大模型70个核心术语全解析:从入门到精通,构建完整知识框架
AI大模型(尤其是LLM时代)术语爆炸式增长,从基础概念到前沿技术,掌握核心词汇能让你快速构建知识体系,避免“听天书”。
下面基于2025-2026年主流中文社区/技术文章(如知乎、CSDN、火山引擎等热门整理)汇总的70个最常被提及、最实用的核心术语,按逻辑分类整理(共10大模块),每个术语附带通俗解释 + 关键作用/代表例子,适合新手到进阶一次性get。
一、基础概念(1-10,共10个):AI世界的底层逻辑
- 人工智能 (AI):让机器模拟人类智能的技术总称。包括感知、推理、学习、决策。
- 机器学习 (ML):让机器从数据中“自动学习”规律,而非人工硬编码规则。
- 深度学习 (DL):用多层神经网络(深层结构)进行机器学习,处理图像/语音/文本等非结构数据的主力。
- 大语言模型 (LLM):参数规模亿级以上的语言模型,如GPT-4、Claude、DeepSeek、Qwen等,核心是“预测下一个词”。
- 基础模型 (Foundation Model):在大规模数据上预训练的通用大模型,可微调到各种下游任务。
- 生成式AI (Generative AI / AIGC):AI主动“创作”新内容(文本、图像、视频、代码、音乐)。
- AGI (通用人工智能):能像人类一样在任意智力任务上达到或超过人类水平的AI(还未实现)。
- Token:大模型处理文本的最小单位(不一定是完整词,可能是一个字/子词/标点)。中文一个汉字≈1-2个Token。
- Prompt:你输入给模型的指令/上下文,Prompt工程是调教模型的关键技能。
- 上下文窗口 (Context Window):模型一次能“记住/处理”的最大Token数(如128K、200K、1M等)。
二、模型架构(11-20,共10个):大模型的“骨架”
- Transformer:2017年Vaswani论文提出的架构,几乎所有现代LLM的基石。核心是Self-Attention。
- Self-Attention / 自注意力:让模型关注句子中任意位置的词,解决RNN的长距离依赖问题。
- Multi-Head Attention:多个注意力头并行,捕捉不同维度的关系。
- Feed-Forward Network (FFN):Transformer每层里的全连接网络,增加非线性。
- Positional Encoding:给序列加位置信息(因为Transformer本身不感知顺序)。
- Decoder-only:像GPT系列,只用Decoder部分,擅长生成任务。
- Encoder-Decoder:像T5/BART,Encoder处理输入,Decoder生成输出,适合翻译/摘要。
- MoE (Mixture of Experts):混合专家模型,只激活部分“专家”网络,兼顾性能和效率(如DeepSeek、Mixtral)。
- Mamba:2024年后崛起的State Space Model架构,线性时间复杂度,挑战Transformer在长序列上的地位。
- KV Cache:推理时缓存Key/Value,避免重复计算,大幅加速生成。
三、训练范式(21-35,共15个):从0到1的炼丹过程
- 预训练 (Pre-training):海量无标签数据上自监督学习(如下一个Token预测)。
- 监督微调 (SFT / Supervised Fine-Tuning):用高质量问答对继续训练,让模型更听话。
- RLHF (Reinforcement Learning from Human Feedback):用人类偏好数据训练奖励模型,再用PPO优化,让输出更符合人类价值观。
- DPO (Direct Preference Optimization):简化版RLHF,直接用偏好数据优化,不需要单独奖励模型。
- LoRA (Low-Rank Adaptation):参数高效微调,只训很少参数(低秩矩阵),节省显存。
- QLoRA:量化+LoRA,进一步降低显存需求,消费级显卡也能微调70B模型。
- PEFT (Parameter-Efficient Fine-Tuning):参数高效微调的总称,包括LoRA、Adapter、Prefix-Tuning等。
- 指令微调 (Instruction Tuning):用指令-响应格式数据训练,让模型更好地遵循Prompt。
- Scaling Law:模型性能随参数量/数据量/算力增加呈可预测幂律提升(Chinchilla定律等)。
- 幻觉 (Hallucination):模型编造不存在的事实/内容。
- 温度 (Temperature):控制生成随机性,0=最确定,1=更随机创意。
- Top-k / Top-p (Nucleus Sampling):解码策略,限制采样范围,避免低概率胡说。
- Beam Search:搜索多个候选序列,选最优路径。
- 自回归 (Autoregressive):一步步生成下一个Token,当前输出依赖之前所有。
- 蒸馏 (Distillation):用大模型教小模型,压缩体积保留能力。
四、推理与部署(36-45,共10个):让模型真正跑起来
- 推理 (Inference):模型实际生成输出的阶段(相对训练)。
- 量化 (Quantization):把FP16/FP32权重转为INT8/INT4,降低显存/加速(几乎不掉性能)。
- vLLM / SGLang:高效推理框架,支持PagedAttention、连续批处理。
- RAG (Retrieval-Augmented Generation):检索外部知识库+生成,解决知识截止和幻觉。
- Agent / AI Agent:大模型+工具调用+规划,能自主完成多步复杂任务。
- Chain of Thought (CoT):让模型“一步一步思考”,显著提升推理能力。
- Tree of Thoughts (ToT):CoT的树状扩展,探索多条推理路径。
- Self-Consistency:多次采样取多数投票,提升一致性。
- 工具调用 (Tool Use / Function Calling):模型输出结构化调用外部API/工具。
- 多模态 (Multimodal):同时处理文本+图像+音频+视频(如GPT-4o、Gemini、Qwen-VL)。
五、评估与优化(46-55,共10个)
- Perplexity (困惑度):衡量语言模型预测好坏,越低越好。
- BLEU / ROUGE:机器翻译/摘要的经典自动评估指标。
- BERTScore / MoverScore:基于嵌入相似度的现代评估。
- Arena / LMSYS Chatbot Arena:人类盲测对战排行榜,最真实的主观榜单。
- MMLU / HumanEval / GSM8K:经典评测集(多选、代码、数学)。
- 幻觉检测:专门评估模型编造内容的比例。
- 安全性对齐 (Alignment):让模型输出符合人类价值观,避免有害内容。
- 红队测试 (Red Teaming):故意攻击模型找漏洞。
- 水印 (Watermarking):在生成文本中嵌入隐形标记,追踪AI内容。
- 可解释性 (Interpretability):理解模型为什么这么决定。
六、伦理与安全(56-60,共5个)
- 偏见 (Bias):模型继承训练数据中的性别/种族/地域偏见。
- 越狱 (Jailbreak):用特殊Prompt绕过模型的安全限制。
- 提示注入 (Prompt Injection):恶意指令覆盖用户指令。
- 数据污染 (Data Poisoning):训练数据被恶意污染。
- 模型窃取 (Model Stealing):通过API查询逆向复制模型。
七、其他高频前沿(61-70,共10个)
- 开源大模型:Llama-3、Qwen、DeepSeek、Mistral、Gemma等。
- 闭源大模型:GPT-4o、Claude-3.5/4、Gemini-1.5/2.0。
- 长上下文:支持几十万到百万Token的模型。
- 推理模型:专为复杂推理优化的模型(如o1系列)。
- 边缘大模型 / SLM:小模型(亿级参数),手机/边缘设备跑。
- 联邦学习:多设备协作训练,不共享原始数据。
- 合成数据:用大模型生成训练数据,解决数据荒。
- 世界模型 (World Model):AI理解物理规律/因果的模型。
- 具身智能 (Embodied AI):AI+机器人,在物理世界行动。
- AI原生应用:从底层为AI设计的应用,而非传统软件+AI插件。
一句话总结:
大模型的核心逻辑是“海量数据 + Transformer + Scaling + 对齐”,70个术语串起来就是从“预训→SFT→RLHF/DPO→高效推理→RAG/Agent→多模态/具身”这条技术主线。
收藏后可以当词典用!
你现在最困惑/最想深入哪个方向的术语?比如Agent实现、RAG优化、量化部署、还是MoE/长上下文?告诉我,我可以展开更细的实战案例和代码思路。
更多推荐


所有评论(0)