MCP(模型上下文协议)深度解析:让大模型实时获取外部能力

在大模型的世界里,知识往往是静态的,而现实世界的数据却是动态的。如何让大模型突破时间限制,实时调用外部能力?这正是 MCP(Model Context Protocol,模型上下文协议) 诞生的意义。


1. 背景:为什么需要 MCP?

大语言模型(LLM)在训练完成后,知识库通常是固定的。
这意味着:

  • 无法访问训练时间之后的新数据
  • 不能直接操作数据库、系统 API
  • 与应用的交互能力有限

在现实业务中,这会造成很多限制,比如:

  • 无法获取最新的天气信息
  • 无法直接调用企业内部系统
  • 无法操作文件、日程、交易数据

MCP 的目标
建立一种标准化的协议,让 LLM 可以安全、高效地与外部应用进行实时通信。


2. 什么是 MCP?

MCP(模型上下文协议)是一个 AI 模型与应用程序之间交换上下文和调用外部工具的协议
它的核心思想是:

把外部能力抽象成可调用的 Tool,并让模型通过 MCP Client 调用 MCP Server 上的这些 Tool,从而实现与外部世界的互动。


MCP 的三大角色

  1. MCP Server

    • 对外提供可调用的接口(称为 Tool)
    • 负责实际执行任务(如数据库查询、调用第三方 API)
  2. MCP Client

    • 充当 LLM 与 MCP Server 之间的桥梁
    • 接收模型的调用请求,转发给 MCP Server
  3. LLM(大语言模型)

    • 接收用户的 Prompt
    • 根据上下文决定是否调用 MCP 的 Tool

3. 工作原理

假设用户问:

“帮我查一下今天上海的天气,并写成一句幽默的朋友圈文案。”

整个流程是这样的:

  1. 用户 → AI Agent
    用户输入问题,AI Agent 收到 Prompt。

  2. AI Agent → LLM
    AI Agent 把 Prompt 发给 LLM。

  3. LLM 决策调用 MCP Tool
    LLM 判断自己无法直接回答(因为天气信息是动态的),于是通过 MCP Client 调用 MCP Server 的 getWeather 工具。

  4. MCP Server 执行任务
    MCP Server 访问天气 API,返回结果(例如 "今天上海 32°C,晴转多云")。

  5. LLM 生成最终结果
    LLM 将天气信息加工成幽默的朋友圈文案。

  6. AI Agent → 用户
    返回结果给用户。


4. MCP Tool 的结构

一个 Tool 就是 MCP Server 暴露的一个可调用函数。
它一般包含以下字段:

{
  "name": "getWeather",
  "description": "获取指定城市的天气信息",
  "inputSchema": {
    "type": "object",
    "properties": {
      "city": {
        "type": "string",
        "description": "城市名称"
      }
    },
    "required": ["city"]
  }
}

字段说明:

  • name:Tool 的唯一标识
  • description:描述 Tool 的用途
  • inputSchema:定义输入参数的 JSON Schema

5. 通信方式

MCP 常用三种通信方式:

1. stdio(标准输入/输出)

  • 使用进程的标准输入(stdin)和标准输出(stdout)进行通信,常用于本地运行时和 CLI 工具的集成,延迟极低、实现简洁。

  • 适合本地开发、调试,或是在受信环境中运行的本地工具。

2. SSE(Server-Sent Events)

  • 基于 HTTP,建立一个由服务端向客户端推送消息的长连接,客户端通过 GET 请求初始化连接,通过 POST 请求发送指令;服务端通过 SSE 流发送消息模型上下文协议。

  • 优点是能实时推送更新,但属于单向通信(服务端 → 客户端),并且连接需长时间保持。

3. Streamable HTTP

  • 从 MCP 协议版本 2025-03-26 开始引入,作为更现代、灵活的 HTTP 传输机制模型上下文协议。

  • 在一个统一的 HTTP 端点上支持 POST(客户端发送请求)和 GET(建立 SSE 流)双用通信;

  • 支持批处理响应(batch)和流式响应(stream via SSE);

  • 附加功能包括会话管理、断点续传能力、与 HTTP 基础设施兼容性更强


6. MCP 的优势

  • 标准化:统一 LLM 与应用交互的接口规范
  • 实时性:大模型可以访问最新数据
  • 可扩展性:新增能力只需在 MCP Server 注册新的 Tool
  • 安全性:通过 Client 层可控地暴露外部能力

7. 应用场景

  • 企业内部知识检索
  • 自动化办公
  • 智能客服
  • 金融交易系统
  • IoT 设备控制

8. 总结

MCP 并不是让模型“变聪明”,而是让模型能够借助外部能力完成更多任务
在 AI Agent 时代,MCP 将成为大模型连接现实世界的关键基础设施。


💡 一句话总结

MCP 让大模型不再是“孤立的聪明人”,而是能“动手”的超级助手。


Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐