本文用最通俗的语言,帮大家拆解 LLM、Transformer、Prompt、Function Calling、MCP、Agent、A2A 等 AI 核心概念。不纠结学术严谨性,只求易懂好理解,部分内容包含个人实战总结,难免有疏漏,欢迎评论区指正~ 不管你是刚入门的小白,还是想补全 AI 知识体系的程序员,都能轻松看懂!

1、LLM (大语言模型)

本质就是文字接龙。

把问题当成输入,把大模型当成函数,把回答当成输出。

大模型回答问题的过程,就是一个循环执行函数的过程。

另外有必要了解一下,AI技术爆发于2023年,ChatGPT经过了几次迭代才崭露头角。

  • Transformer架构。
  • 参数爆发增长。
  • 人工干预奖励模型。

思考题: 语言能代表智能吗?

2、Transformer (自注意力机制)

自注意力机制就是动态关联上下文的能力。如何实现的呢?

  • 每个分词就是一个 token
  • 每个token 都有一个 Q, K, V 向量 (参数)
  • Q 是查询向量

  • K 是线索向量

  • V 是答案向量

  • 推理的过程:
  • 当前token 的Q 与 前面所有的 K 计算权重

  • 每个 token 的V加权相加得到一个 token预测值

  • 选择 N 个与预测值最接近的 token, 掷骰子选择

最简化示例: 小明吃完冰淇淋,结果 => 肚子疼。

首先分词及每个token的 Q, K, V向量。

token Q(查询) K(键) V(值) 语义解释
小明 [0.2, 0.3] [0.5, -0.1] [0.1, 0.4] 人物主体
吃完 [-0.4, 0.6] [0.3, 0.8] [-0.2, 0.5] 动作(吃完)
冰淇淋 [0.7, -0.5] [-0.6, 0.9] [0.9, -0.3] 食物(冷饮,可能致腹泻)
结果 [0.8, 0.2] [0.2, -0.7] [0.4, 0.1] 结果(需关联原因)

接着开始推理:

  1. 使用最后一个 token 的 Q(“结果”的 Q 向量)

Q_current = [0.8, 0.2]

  1. 计算 Q_current 与所有 K 的点积(相似度)

点积公式:Q·K = q₁*k₁ + q₂*k₂

Token K向量 点积计算 结果
小明 [0.5, -0.1] 0.8 * 0.5 + 0.2*(-0.1) = 0.4 - 0.02 0.38
吃完 [0.3, 0.8] 0.8 * 0.3 + 0.2 * 0.8 = 0.24 + 0.16 0.4
冰淇淋 [-0.6, 0.9] 0.8*(-0.6) + 0.2 * 0.9 = -0.48 + 0.18 -0.3
结果 [0.2, -0.7] 0.8 * 0.2 + 0.2*(-0.7) = 0.16 - 0.14 0.02
  1. Softmax 归一化得到注意力权重

将点积结果输入 Softmax 函数

Token 点积 指数值(e^x) 权重
小明 0.38 e^0.38 ≈ 1.46 1.46 / 2.74 ≈ 0.53
吃完 0.4 e^0.40 ≈ 1.49 1.49 / 2.74 ≈ 0.54
冰淇淋 -0.3 e^-0.30 ≈ 0.74 0.74 / 2.74 ≈ 0.27
结果 0.02 e^0.02 ≈ 1.02 1.02 / 2.74 ≈ 0.37
  1. 加权求和 V 向量生成上下文向量

将权重与对应 V 向量相乘后相加:

Token 权重 V向量 加权 V 向量
小明 0.53 [0.1, 0.4] 0.53*[0.1, 0.4] ≈ [0.053, 0.212]
吃完 0.54 [-0.2, 0.5] 0.54*[-0.2, 0.5] ≈ [-0.108, 0.27]
冰淇淋 0.27 [0.9, -0.3] 0.27*[0.9, -0.3] ≈ [0.243, -0.081]
结果 0.37 [0.4, 0.1] 0.37*[0.4, 0.1] ≈ [0.148, 0.037]

最终上下文向量:

[0.053−0.108+0.243+0.148,0.212+0.27−0.081+0.037]=[0.336,0.438]

  1. 预测下一个 token

模型将上下文向量 [0.336, 0.438] 与候选 token 的嵌入向量对比:

嵌入向量不作过多解释, 只要知道QKV三个向量可从嵌入向量计算得到即可

候选词 嵌入向量 相似度(点积) 概率
肚子疼 [0.3, 0.5] 0.336 * 0.3 + 0.438 * 0.5 ≈ 0.101 + 0.219 = 0.320 最大概率(例如 65%)
头疼 [0.2, 0.1] 0.336 * 0.2 + 0.438 * 0.1 ≈ 0.067 + 0.044 = 0.111 次之(例如 20%)
开心 [-0.5, 0.8] 0.336*(-0.5) + 0.438 * 0.8 ≈ -0.168 + 0.350 = 0.182 较低(例如 15%)

最终模型选择最高概率的 “肚子疼” 作为下一个 token。

注意在实际场景中,预测的下一个token是不确定的,是因为有一个掷骰子的操作,大模型会在概率最大的几个token中随机挑选一个作为最终输出。

3、Prompt (提示词)

对于这个词大家并不陌生。我们用chatGPT时经常会用到, “你是一个…”

但你真的理解它吗?

与ai对话时的这种预设角色,其实并不是严格意义上的 prompt。

为什么这么说呢?先看一下API。

4、理解API

我们前面提到过大语言模型的 本质就是文字接龙,相对应的使用大模型也比较简单。可以参见deepseek的文字接龙 api 请求:

https://api-docs.deepseek.com/zh-cn/api/create-chat-completion

这里比较重要的几个部分,需要理解:

  1. temperature 温度

Temperature(温度) 是一个控制生成文本随机性和多样性的关键参数。它通过调整模型输出的概率分布,直接影响生成内容的“保守”或“冒险”程度。看几个典型场景:

场景 温度
代码生成/数学解题 0
数据抽取/分析 1
通用对话 1.3
翻译 1.3
创意类写作/诗歌创作 1.5
  1. tools 工具支持

大模型对 function calling 的支持,后面再详细介绍。

  1. 角色和信息

这一部分是ai对话的主体。其中role 定义了四个角色。

  • system 系统设定。
  • user 用户回复。
  • assistant 模型回答。
  • tool 是配合function call工作的角色,可以调用外部工具。

回到前一章的问题,ai对话时其实是user部分输入的内容,所以system角色的设定内容才应该是严格意义上的Prompt。

这有啥区别呢? (user 与 system?)

个人一个合理的猜测: system的内容在Transformer推理中拥有较高的权重。所以拥有较高的响应优先级。

  1. 关于多轮对话

因为LLM是无状态的。我们要时刻记得文字接龙的游戏,因此在实际操作中也是这样的。

  • 在第一轮请求时,传递给 API 的 messages 为。

  • 大模型回答。

  • 当用户发起第二轮问题时,请求变成了这样

5、Function Calling (函数调用)

仅仅一个可以回答问题的机器人,作用并不太大。

要完成复杂的任务,就需要大模型的输出是稳定的,而且是可编程的。

因此OpenAI 推出了 function calling的支持。也就是前面提到的 tools参数相关内容。

  1. 基本流程
  • 工具声明及用户输入

  • 模型检测到需要使用工具,返回相关工具参数

  • 开发者根据方法名和参数,调用相关工具方法

  • 将工具方法的返回值,附加到请求中,再次请求大模型

  • 得出最终结果
"The current temperature in Paris is 14°C (57.2°F)."
  • 总结一下

  1. 实现原理(猜测)

a. 实现方式一: prompt 遵循 (示例)

提前设置规则:

b. 实现方式二: 模型训练特定优化

对结构化输出有特定要求,可能需要特定训练吧。这个不太确定?

6、Agent (智能体)

包含: 大模型,任务规划,上下文记忆,工具调用。它是大模型能力的拓展。其实只要对API进行简单的封装,只要能完成特定任务,都可以称为智能体。比如下面的例子:

  1. 创建AI客服系统

这个智能体,主要包括:

  1. 配置了一个 prompt: “你是一个电商客服,可查询订单状态”

  2. 引入 query_order 工具

  3. 其它创建方式

服务商开放接口,供用户创建,比如腾讯元器:

https://yuanqi.tencent.com/my-creation/agent

一个简单的提示词都可以创建智能体:

7、MCP (模型上下文协议)

通过上面的智能体调用工具的示例我们可以看到,每接入一个工具,都需要编写相应的接入代码。经常写代码的我们都知道,这不是好的架构设计。 好的设计应该把动态改变的部分 ( tools的声名和调用分离出来 ),做为一个独立的模块来拓展。这就有了大众追捧的 MCP: -----(哪有这么玄,都是程序员的常规操作啊…)

MCP是工具接入的标准化协议

https://modelcontextprotocol.io/introduction

遵循这套协议,可以实现工具与Agent的解耦。你的Agent 接入MCP协议的client sdk后。接入工具不再需要编写工具调用代码,只需要注册 MCP Server就可以了。而MCP Server可由各个服务商独立提供。

MCP Server做什么呢?

  1. 声明提供的能力 ListTools。
  2. 调用能力的方式 CallTool。

来看一下MCP Server的部分代码 (红框中就是做上面两个事,不难理解) :

8、A2A (Agent通信协议)

A2A本质是对 MCP协议的拓展,按字面意思就是 Agent to Agent. 有兴趣的自己详细看吧。

智能体与智能体之间通信的标准化协议

https://github.com/google/A2A?tab=readme-ov-file#agent2agent-a2a-protocol

在这套协议下,一个智能体要引入其它的智能体的能力,也变得可插拔了。

9、未来假想

如同蒸汽机,电,计算机这些伟大的技术一样。AI会成为下一个彻底改变人类生活工作方式的新技术。

  1. 现在AI编程能力越来越强,程序员是不是要失业了?

职业不会消失,消失的只有人。但是AI编程的确会重塑整个行业。

我预想几年后,纯粹的业务代码工程师可能会消失。而会增加更多的AI编程工程师。

AI编程工程师的职责是解决AI模糊性的问题。而工具的引入就是增加确定性的手段。

我们程序员可以把自己的积累通过 mcp server的方式,挂载到项目agent 上去。这样我们就可以解放双手,去解决更多有挑战性的问题。

  1. 当前我们有哪些工作可以由AI来处理?

理论上一切重复性的工作都可以交由AI完成。保险起见,创造性的工作暂时可以只作为参考。

  • 日常的反馈分析。
  • 团队知识库。
  • 个人知识库。

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

在这里插入图片描述

为什么要学习大模型?

我国在A大模型领域面临人才短缺,数量与质量均落后于发达国家。2023年,人才缺口已超百万,凸显培养不足。随着AI技术飞速发展,预计到2025年,这一缺口将急剧扩大至400万,严重制约我国AI产业的创新步伐。加强人才培养,优化教育体系,国际合作并进是破解困局、推动AI发展的关键。

在这里插入图片描述

在这里插入图片描述

大模型入门到实战全套学习大礼包

1、大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!

img


2、大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。

在这里插入图片描述

3、AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

img

4、大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。

img

5、大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

img

适用人群

在这里插入图片描述

第一阶段(10天):初阶应用

该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。

  • 大模型 AI 能干什么?
  • 大模型是怎样获得「智能」的?
  • 用好 AI 的核心心法
  • 大模型应用业务架构
  • 大模型应用技术架构
  • 代码示例:向 GPT-3.5 灌入新知识
  • 提示工程的意义和核心思想
  • Prompt 典型构成
  • 指令调优方法论
  • 思维链和思维树
  • Prompt 攻击和防范
第二阶段(30天):高阶应用

该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。

  • 为什么要做 RAG
  • 搭建一个简单的 ChatPDF
  • 检索的基础概念
  • 什么是向量表示(Embeddings)
  • 向量数据库与向量检索
  • 基于向量检索的 RAG
  • 搭建 RAG 系统的扩展知识
  • 混合检索与 RAG-Fusion 简介
  • 向量模型本地部署
第三阶段(30天):模型训练

恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。

到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?

  • 为什么要做 RAG
  • 什么是模型
  • 什么是模型训练
  • 求解器 & 损失函数简介
  • 小实验2:手写一个简单的神经网络并训练它
  • 什么是训练/预训练/微调/轻量化微调
  • Transformer结构简介
  • 轻量化微调
  • 实验数据集的构建
第四阶段(20天):商业闭环

对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。

  • 硬件选型
  • 带你了解全球大模型
  • 使用国产大模型服务
  • 搭建 OpenAI 代理
  • 热身:基于阿里云 PAI 部署 Stable Diffusion
  • 在本地计算机运行大模型
  • 大模型的私有化部署
  • 基于 vLLM 部署大模型
  • 案例:如何优雅地在阿里云私有部署开源大模型
  • 部署一套开源 LLM 项目
  • 内容安全
  • 互联网信息服务算法备案

学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。

如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。

这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费

https://img-blog.csdnimg.cn/img_convert/05840567e2912bcdcdda7b15cba33d93.jpeg

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐