本文深入浅出地介绍了AI大模型的核心概念,包括Agent(AI智能体)、LLM(大语言模型)、Tools(接口说明书)、Skills(能力实现)和MCP(模型上下文协议)。文章通过实例解析了它们之间的协作流程,帮助读者建立对AI架构体系的基础认知,为后续实践AI技术打下坚实基础。

先给结论:一表看懂其中关系

现在看这些还是一头雾水,没关系,我来一一为你道来。

Agent:AI智能体

这里再做一次总结,Agent 是有感知、会决策、能行动的 AI 系统。Agent 总是运行在某个 Host 上(IDE / App / Server等等)。Agent从广义上看是由LLM(大脑)+ Tools/Skills(能力)+ MCP(连接方式)组成,Host 是基础设施,不是智能主体。

Host 提供:

  • 进程环境
  • 权限边界
  • MCP Client / Server 的生命周期管理

LLM:Agent 的大脑

LLM 的英文全称是:Large Language Model,即:大语言模型,负责理解、推理、规划。它读 Tools 的「说明书」,决定何时调用、传什么参数,LLM 只认识 Tool 的声明,不认识 Skill 的实现。

Tool:给 LLM 看的「接口说明书」

Tool 不是能力实现,是一个声明,Tool 是 Skill 的对外接口,Tool 告诉 LLM:

  • 有这个能力
  • 能干什么
  • 怎么传参数

举个例子,下面是一个 Tool 在 MCP Server 注册时的声明:

{
"name": "web_search",
"description": "Search the web for up-to-date information that is not in the model’s training data.",
"inputSchema": {
"type": "object",
"properties": {
"query": {
"type": "string",
"description": "The search query to send to a web search engine"
},
"top_k": {
"type": "number",
"description": "Maximum number of results to return",
"default": 5
}
},
"required": ["query"]
}
}

这段声明告诉 LLM:

✔ 有这个能力

✔ 名字是 web_search

✔ 需要一个 query 字符串

✔ 可以选择返回多少条结果

Tool 不包含任何搜索 API 逻辑,它只描述能力。

Skill:真正「做事」的能力实现

Skill 则是 MCP Server 内部的实现代码,它知道:

去哪个搜索 API(比如 Bing / Google / internal service)

如何发送请求

如何处理返回

Skill 只关心:

  • 输入是什么
  • 怎么执行
  • 输出什么

下面是一个真实的实现示例(Node.js + 伪 API):

server.tool("web_search", async ({ query, top_k = 5 }) => {
// 真实调用某个搜索 API
const response = await fetch(
https://api.bing.microsoft.com/v7.0/search?q=${encodeURIComponent(query)}&count=${top_k},
{
headers: {
"Ocp-Apim-Subscription-Key": process.env.BING_API_KEY
}
}
);
const data = await response.json();
// 返回给 MCP Server 格式
return {
content: data.webPages?.value?.map(item => ({
type: "text",
text: ${item.name}: ${item.snippet} (${item.url})
})) || []
};
});

Skill 做了哪些事?

✔ 真实调用搜索 API

✔ 带了认证(API Key)

✔ 拿结果并格式化

✔ 返回给 MCP Server

重要的是:

LLM 永远不知道这些细节

它只负责输出 Tool 调用意图

MCP:连接一切的协议

MCP 全称是:Model Context Protocol,模型上下文协议。可以类比 USB 协议:统一标准、即插即用。

没有 MCP 之前,各厂商自定义协议,对接成本高、难复用。

有 MCP 之后,统一标准,一次开发、多处使用(Cursor、Claude、openClaw 等)。好处是:标准化、可扩展、即插即用、生态互通。

MCP Client / MCP Server

MCP Client 和 MCP Server 本质上都在“Host 本地 / Host 进程”里。

MCP Client:Host 的「LLM 接入层」,负责与 LLM 交互,它是消费能力的一方(如 Agent / IDE)。

MCP Server:暴露能力(Tools、Resources 等)的一方,Host 内部的 tool runtime(搜索、文件、命令)。

通信方式:本地用 stdin / stdout,远端一般用 HTTP / HTTPS。

为什么需要 MCP?

在 Host 规模小时:Tool 数量少、全部内置、单进程、单团队维护,私有工具系统完全够用。

当能力变多后,问题爆发了:

想让第三方加 tool?

想让工具跑在沙箱?

想让工具跑在远端?

想让 agent 之间共享能力?

👉 私有 API 直接崩溃。MCP 正是为了解决这些问题。

完整流程示例

概念讲完,接下来我们来讲一个完整例子,相信大家看完这个例子就能对这些概念有进一步清晰的认识。

我们就以 Cursor 这个软件为例,当你在 Cursor 中输入一个问题:「这两天的股价走势是什么样的,你有什么预测?」

它的流程是:

Step 1:你启动了 Cursor(Host 程序),它自动启动子进程 MCP Client 和 MCP Server。MCP Server 把已注册的 Tools 列表返回给 MCP Client,并把这些列表加入 system prompt 中,类似如下:

{
"tools": [
{
"name": "web_search",
"description": "Search the web for information",
"inputSchema": {...}
}
]
...
}

然后 MCP Client 把这些信息注入给 LLM,转为 system prompt 形式,例如:

You have access to the following tools:
Tool: web_search
Description: Search the web for information
Parameters:
query (string)
top_k (number, optional)

LLM 并不知道 MCP 的存在,它只知道:“我现在可以用一个叫 web_search 的工具”。

Step 2:用户输入:「这两天的股价走势是什么样的,你有什么预测?」
LLM 的内部推理流程可能是这样的:这个问题:

  • 需要“最近”
  • 我训练数据可能不够新
  • 我有一个 tool 叫 web_search
  • 这个 tool 的 description 是“Search the web”→ 应该调用它

⚠️ 没有 if/else

⚠️ 没有 hardcode

⚠️ 完全是语言模型的语义匹配

LLM 不会直接返回答案,而是输出「工具调用意图」,即返回一个 tool call:

{
"tool_call": {
"name": "web_search",
"arguments": {
"query": "NVIDIA Blackwell architecture latest news",
"top_k": 5
}
}
}

如何学习大模型 AI ?

由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。

但是具体到个人,只能说是:

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包

  • ✅ 从零到一的 AI 学习路径图
  • ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
  • ✅ 百度/阿里专家闭门录播课
  • ✅ 大模型当下最新行业报告
  • ✅ 真实大厂面试真题
  • ✅ 2026 最新岗位需求图谱

所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》下方扫码获取~
在这里插入图片描述

① 全套AI大模型应用开发视频教程

(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
在这里插入图片描述

② 大模型系统化学习路线

作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
在这里插入图片描述

③ 大模型学习书籍&文档

学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
在这里插入图片描述

④ AI大模型最新行业报告

2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
在这里插入图片描述

⑤ 大模型项目实战&配套源码

学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
在这里插入图片描述

⑥ 大模型大厂面试真题

面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余

图片

以上资料如何领取?

在这里插入图片描述

为什么大家都在学大模型?

最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

图片

不出1年,“有AI项目经验”将成为投递简历的门槛。

风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!
在这里插入图片描述
在这里插入图片描述

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
在这里插入图片描述

以上全套大模型资料如何领取?

在这里插入图片描述

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐