MCP(模型上下文协议)
MCP(模型上下文协议)是一种让大语言模型实时调用外部能力的标准化协议,解决模型知识静态化问题。它通过MCP Server提供可调用工具(Tool)、MCP Client作为中间桥梁,实现LLM与外部应用的安全高效交互。工作流程包括:LLM决策调用、MCP执行任务并返回结果、LLM生成最终响应。MCP支持HTTP和WebSocket通信,具有标准化、实时性、可扩展性和安全性优势,适用于天气查询、企
MCP(模型上下文协议)深度解析:让大模型实时获取外部能力
在大模型的世界里,知识往往是静态的,而现实世界的数据却是动态的。如何让大模型突破时间限制,实时调用外部能力?这正是 MCP(Model Context Protocol,模型上下文协议) 诞生的意义。
1. 背景:为什么需要 MCP?
大语言模型(LLM)在训练完成后,知识库通常是固定的。
这意味着:
- 无法访问训练时间之后的新数据
- 不能直接操作数据库、系统 API
- 与应用的交互能力有限
在现实业务中,这会造成很多限制,比如:
- 无法获取最新的天气信息
- 无法直接调用企业内部系统
- 无法操作文件、日程、交易数据
MCP 的目标:
建立一种标准化的协议,让 LLM 可以安全、高效地与外部应用进行实时通信。
2. 什么是 MCP?
MCP(模型上下文协议)是一个 AI 模型与应用程序之间交换上下文和调用外部工具的协议。
它的核心思想是:
把外部能力抽象成可调用的 Tool,并让模型通过 MCP Client 调用 MCP Server 上的这些 Tool,从而实现与外部世界的互动。
MCP 的三大角色
-
MCP Server
- 对外提供可调用的接口(称为 Tool)
- 负责实际执行任务(如数据库查询、调用第三方 API)
-
MCP Client
- 充当 LLM 与 MCP Server 之间的桥梁
- 接收模型的调用请求,转发给 MCP Server
-
LLM(大语言模型)
- 接收用户的 Prompt
- 根据上下文决定是否调用 MCP 的 Tool
3. 工作原理
假设用户问:
“帮我查一下今天上海的天气,并写成一句幽默的朋友圈文案。”
整个流程是这样的:
-
用户 → AI Agent
用户输入问题,AI Agent 收到 Prompt。 -
AI Agent → LLM
AI Agent 把 Prompt 发给 LLM。 -
LLM 决策调用 MCP Tool
LLM 判断自己无法直接回答(因为天气信息是动态的),于是通过 MCP Client 调用 MCP Server 的getWeather工具。 -
MCP Server 执行任务
MCP Server 访问天气 API,返回结果(例如"今天上海 32°C,晴转多云")。 -
LLM 生成最终结果
LLM 将天气信息加工成幽默的朋友圈文案。 -
AI Agent → 用户
返回结果给用户。
4. MCP Tool 的结构
一个 Tool 就是 MCP Server 暴露的一个可调用函数。
它一般包含以下字段:
{
"name": "getWeather",
"description": "获取指定城市的天气信息",
"inputSchema": {
"type": "object",
"properties": {
"city": {
"type": "string",
"description": "城市名称"
}
},
"required": ["city"]
}
}
字段说明:
name:Tool 的唯一标识description:描述 Tool 的用途inputSchema:定义输入参数的 JSON Schema
5. 通信方式
MCP 常用三种通信方式:
1. stdio(标准输入/输出)
-
使用进程的标准输入(stdin)和标准输出(stdout)进行通信,常用于本地运行时和 CLI 工具的集成,延迟极低、实现简洁。
-
适合本地开发、调试,或是在受信环境中运行的本地工具。
2. SSE(Server-Sent Events)
-
基于 HTTP,建立一个由服务端向客户端推送消息的长连接,客户端通过 GET 请求初始化连接,通过 POST 请求发送指令;服务端通过 SSE 流发送消息模型上下文协议。
-
优点是能实时推送更新,但属于单向通信(服务端 → 客户端),并且连接需长时间保持。
3. Streamable HTTP
-
从 MCP 协议版本 2025-03-26 开始引入,作为更现代、灵活的 HTTP 传输机制模型上下文协议。
-
在一个统一的 HTTP 端点上支持 POST(客户端发送请求)和 GET(建立 SSE 流)双用通信;
-
支持批处理响应(batch)和流式响应(stream via SSE);
-
附加功能包括会话管理、断点续传能力、与 HTTP 基础设施兼容性更强
6. MCP 的优势
- 标准化:统一 LLM 与应用交互的接口规范
- 实时性:大模型可以访问最新数据
- 可扩展性:新增能力只需在 MCP Server 注册新的 Tool
- 安全性:通过 Client 层可控地暴露外部能力
7. 应用场景
- 企业内部知识检索
- 自动化办公
- 智能客服
- 金融交易系统
- IoT 设备控制
8. 总结
MCP 并不是让模型“变聪明”,而是让模型能够借助外部能力完成更多任务。
在 AI Agent 时代,MCP 将成为大模型连接现实世界的关键基础设施。
💡 一句话总结:
MCP 让大模型不再是“孤立的聪明人”,而是能“动手”的超级助手。
更多推荐

所有评论(0)