模型上下文协议 (Model Context Protocol,简称 MCP) 是由 「Anthropic 公司(Claude AI 的创造者)于 2023 年底推出的一项开放协议」。其核心目标是「为 AI 模型与外部数据源、工具和服务之间的连接建立统一、安全、高效的标准」,解决当前 AI 生态中集成碎片化、开发重复和安全隐患等挑战。

一、MCP 核心概念:AI 的“万能适配器”

简单而言,你可以将 MCP 理解为一个 「“万能适配器”」 或 「“AI 的连接总线”」。它使得任何兼容的 AI 模型都能够以一种安全、标准化且无需重复开发的方式,灵活接入并利用丰富的外部资源(如数据库、API、文件系统、专业工具等)。

1. 核心特性与价值

(1) 标准化接口

  • 统一资源定义:以一致的描述方式声明外部数据(资源)。
  • 统一工具调用:通过标准化的方式来定义和调用功能(工具)。
  • 价值:极大降低了开发者集成新工具或数据的成本,实现了“一次开发,多处使用”。

(2) 安全性

  • 精细权限控制:服务端明确定义模型访问资源范围和可执行的操作。
  • 沙箱环境:工具执行通常在受控环境中进行,隔离潜在风险。
  • 价值:为企业和开发者提供了可控、可信的 AI 扩展能力,保障系统和数据安全。

(3) 模块化

  • 功能通过独立的 「“服务器 (Server)”」 模块提供,每个服务器专注于特定领域(如文件操作、数据库查询、天气查询等)。
  • 价值:生态易于扩展和维护,开发者可以按需组合或开发专属的服务器。

(4) 模型无关性

  • 协议设计独立于具体的 AI 模型。理论上,任何支持 MCP 客户端协议的模型(如 Claude、GPT 等)都可以利用相同的 MCP 服务器。
  • 价值:打破了模型与工具之间的绑定,促进了开放生态的形成。

二、MCP 生态资源

MCP 的活力依赖于其蓬勃发展的社区和丰富的可用资源。以下是一些关键的资源导航:

(1) 官方与社区服务器列表 (awesome-mcp-servers)

  • 链接:https://github.com/punkpeye/awesome-mcp-servers
  • 描述:这是一个社区维护的精选列表,收录了各类高质量的 MCP 服务器项目,是寻找现成集成方案的首选入口。

(2) PyPI 安装包

  • 链接:https://pypi.org/search/?q=mcp
  • 描述:Python 包索引中包含了官方的 mcp SDK 以及众多第三方开发的 MCP 服务器包,方便通过 pip 或 uv 快速安装。

(3) MCP 服务平台与社区

  • MCP.so:一个在线的 MCP 服务器探索与测试平台。
  • ModelScope MCP 社区 (https://www.modelscope.cn/mcp):阿里云 ModelScope 平台下的中文 MCP 生态社区。
  • 智谱 MCP 市场 (https://bigmodel.cn/marketplace/index/mcp):智谱 AI 推出的 MCP 服务器市场。
  • Smithery.ai:一个用于构建、部署和管理 MCP 服务器的专业平台。

三、MCP 开发入门:构建你的第一个服务器

下面将引导你逐步创建一个具备基础功能的 MCP 服务器。

1. 项目初始化
# 使用 uv 创建并初始化项目(uv 是一个快速的 Python 包管理器和解析器)
uv init mcp_base_server
cd mcp_base_server

# 测试运行主脚本并创建虚拟环境
uv run python main.py
2. 安装核心依赖
# 安装 MCP SDK 及其命令行工具
pip install mcp[cli]
# 或使用 uv
uv add mcp[cli]
3. 项目结构

创建以下基础模块结构:

mcp_base_server/
├── __init__.py
└── main.py          # 服务器主入口文件
4. 编写服务器入口 (main.py)
#!/usr/bin/env python3
"""
MCP 基础服务器示例 - 主入口文件
"""
import sys
import argparse

# 导入mcp库
try:
    from mcp.server.fastmcp import FastMCP
except ImportError:
    print("错误: 未安装MCP SDK。请使用 ‘uv add mcp[cli]‘ 或 ‘pip install mcp[cli]‘ 安装。")
    sys.exit(1)

# 导入自定义的注册函数(将在后面定义)
from .registrations import register_tools, register_resources, register_prompts

# 默认配置
DEFAULT_HOST = "0.0.0.0"
DEFAULT_PORT = 8000

def parse_arguments():
    """解析命令行参数"""
    parser = argparse.ArgumentParser(descriptinotallow="MCP 基础功能示例服务器")

    # 传输协议选择
    parser.add_argument(
        "--transport",
        choices=["stdio", "sse", "streamable-http"],
        default="stdio",
        help="选择传输协议: stdio(标准输入输出,适用于本地CLI集成), sse(服务器发送事件), streamable-http(流式HTTP)"
    )
    # HTTP相关参数
    parser.add_argument(
        "--host",
        default=DEFAULT_HOST,
        help=f"HTTP服务器监听主机地址(默认:{DEFAULT_HOST})",
    )
    parser.add_argument(
        "--port",
        type=int,
        default=DEFAULT_PORT,
        help=f"HTTP服务器监听端口(默认:{DEFAULT_PORT})",
    )

    return parser.parse_args()


def main():
    """服务器主函数"""
    args = parse_arguments()

    transport = args.transport
    host = args.host
    port = args.port

    # 根据传输协议创建和配置MCP server实例
    if transport == "stdio":
        # 创建MCP server实例
        mcp = FastMCP("BaseExampleServer")
        # 注册工具、资源和提示词到实例
        register_tools(mcp)
        register_resources(mcp)
        register_prompts(mcp)

        print("启动 MCP 基础示例服务器,传输协议: stdio")
        mcp.run(transport="stdio")
    else:
        # 对于HTTP-based协议,创建时指定host和port
        mcp = FastMCP("BaseExampleServer", host=host, port=port)
        # 注册工具、资源和提示词到实例
        register_tools(mcp)
        register_resources(mcp)
        register_prompts(mcp)

        if transport == "streamable-http":
            print(f"启动服务器 (streamable-http),监听地址: http://{host}:{port}")
            mcp.run(transport="streamable-http")
        elif transport == "sse":
            print(f"启动服务器 (SSE),监听地址: http://{host}:{port}/sse")
            mcp.run(transport="sse")


if __name__ == "__main__":
    main()
5. 定义功能:工具、资源与提示词 (registrations.py)

创建一个新文件 registrations.py 来存放功能注册逻辑。

"""
MCP 功能注册模块
集中定义工具(Tools)、资源(Resources)和提示词(Prompts)
"""
import sys
from mcp.server.fastmcp import FastMCP

# ---------- 工具 (Tools) 注册 ----------
def register_tools(mcp: FastMCP) -> None:
    """注册所有工具函数到MCP实例"""

    @mcp.tool()
    def calc_sum(x: int, y: int) -> str:
        """
        计算两个整数的和。

        参数:
            x (int): 第一个加数
            y (int): 第二个加数

        返回:
            str: 包含计算结果的格式化字符串
        """
        try:
            result = x + y
            returnf"计算结果: {x} + {y} = {result}"
        except Exception as e:
            returnf"计算过程中发生错误: {str(e)}"


# ---------- 资源 (Resources) 注册 ----------
def register_resources(mcp: FastMCP) -> None:
    """注册所有资源到MCP实例"""

    @mcp.resource("system://python/version")
    def get_python_version() -> str:
        """
        提供当前运行环境的 Python 版本信息。

        返回:
            str: 格式化的版本信息字符串
        """
        try:
            returnf"Python 版本信息:\n{sys.version}"
        except Exception as e:
            returnf"获取系统信息时发生错误: {str(e)}"


# ---------- 提示词 (Prompts) 注册 ----------
def register_prompts(mcp: FastMCP) -> None:
    """注册所有提示词模板到MCP实例"""

    @mcp.prompt()
    def get_calc_prompt(x: int, y: int) -> str:
        """
        生成一个请求计算两数之和的提示词。

        参数:
            x (int): 第一个整数
            y (int): 第二个整数

        返回:
            str: 构造好的提示词
        """
        returnf"请帮我计算两个整数的和。这两个数分别是 {x} 和 {y}。请确保输出最终结果。"

「别忘了在主文件 main.py 顶部导入这些注册函数」:from .registrations import register_tools, register_resources, register_prompts

3. 配置与安装为全局工具

在项目根目录的 pyproject.toml 文件中,添加入口点配置:

[project.scripts]
mcp-base-server = "mcp_base_server.main:main"

然后,将你的服务器安装到系统环境中,使其成为一个全局可用的命令:

# 在项目根目录执行
uv tool install . --force

安装后,你可以通过以下命令验证:

uv tool list
# 输出应包含类似内容:
# mcp-base-server v0.1.0
#   - mcp-base-server

现在,你可以在任何地方直接使用 mcp-base-server 命令来启动你的服务器了。

四、MCP 服务器使用示例(以 Cherry Studio 为例)

MCP 服务器需要在一个兼容的客户端中运行和使用。以下以 Cherry Studio 为例展示连接流程。

1. 配置 MCP 服务器

在 Cherry Studio 的设置中,找到 MCP 服务器配置区域。

2. 使用已注册的功能

服务器成功连接后,你可以在客户端中直接调用已注册的功能:

(1) 调用工具

在聊天界面,模型现在可以调用 calc_sum 工具来进行计算。

(2) 使用提示词

你可以直接插入或让模型使用我们注册的 get_calc_prompt 提示词模板。

(3) 访问资源

模型可以读取 system://python/version 资源来获取环境信息。

3. 启动与管理服务器连接

在客户端配置中,你可以设置服务器启动命令为 mcp-base-server(因为我们已将其安装为全局工具),并选择传输协议(如 stdio)。

并再AI会话中使用`mcp`服务。 如下:

此外针对`sse`和streamable-http协议,可以把安装的工具放到含有外网`ip`的服务器上。 

输入外网ip:端口的url地址即可。 

五、总结

通过以上步骤,你完成了一个功能完整的 MCP 服务器的开发、安装与基础使用流程。MCP 通过其「标准化、安全性和模块化」的设计,正在成为连接 AI 模型与广阔数字世界的核心桥梁。无论是集成外部 API、查询数据库,还是连接内部业务系统,MCP 都提供了一条高效、统一的路径。

  学习资源推荐

如果你想更深入地学习大模型,以下是一些非常有价值的学习资源,这些资源将帮助你从不同角度学习大模型,提升你的实践能力。

一、全套AGI大模型学习路线

AI大模型时代的学习之旅:从基础到前沿,掌握人工智能的核心技能!​

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

二、640套AI大模型报告合集

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示

​因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

三、AI大模型经典PDF籍

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。

因篇幅有限,仅展示部分资料,需要点击文章最下方名片即可前往获取

四、AI大模型商业化落地方案

作为普通人,入局大模型时代需要持续学习和实践,不断提高自己的技能和认知水平,同时也需要有责任感和伦理意识,为人工智能的健康发展贡献力量。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐