文章详细介绍了MCP(Model Context Protocol)协议的技术演进过程及其在大模型应用开发中的重要性。从RAG检索增强、Plugin插件机制到Function Call函数调用,最终发展到MCP标准化协议。MCP解决了大模型与外部工具连接的标准化问题,通过client-server机制实现前后端分离解耦,大大降低了AI应用开发难度。文章强调,行业标准化是技术发展成熟的重要标志,能够降低应用门槛,激发开发者创造更多实用AI应用。

什么是MCP?

MCP是Model Context Protocol的简称,即模型上下文协议。通俗地说大模型是“大脑”,负责理解,MCP是“四肢”,负责干活。

MCP由大模型产商Anthropic第一次提出,是一套应用程序向大型语言模型(LLM,下文简称大模型)提供上下文的标准化协议。换句话说之前是各家大模型各自定义协议,没有标准。

没有MCP之前,开发应用程序时,如果想让大模型跟外部工具连接起来需要根据基座大模型的协议针对每个工具分别开发一遍,如下图左边所示,也就是技术上典型的M*N问题。有了MCP协议后,只要工具符合MCP标准,不管用哪家的大模型,都能轻松集成,开发工作量降低为M+N了。又印证了架构领域里最著名的那句话:“没有什么架构问题是加一层解决不了的,如果有那就再加一层”。

MCP是如何演进过来的?

你可能会问,MCP就是一套调用工具的协议,有那么大的威力吗?我们可以从相关的技术里中找到答案。我们都知道大模型的知识是有新鲜度的,取决于收集的训练材料涉及的领域范围有多大?截止到哪一天的信息?也就是说大模型的知识一旦训练发布就固化了。为了让大模型能够获取到外部信息,大模型厂商们没少想办法。快速来回顾一下相关的技术发展路线。

RAG:

最直观的方式就是谁调用大模型谁负责先查询到外部信息,然后通过Prompt(提示词)传给大模型。RAG是Retrieval-Augmented Generation的简称,检索增强的生成。RAG技术是为了让大模型的生成内容更加符合,围绕生成阶段前的查询阶段而演进出来。

RAG要查询的信息基本上是特定的行业领域知识。你可能会说查询不是很简单吗?答案就在查询的内容质量要求上。你可以简单地把外部信息一股脑丢给大模型,也可以先查询然后再提炼精简,取决于问题复杂度和你对大模型生成答案的精确度诉求。RAG系统的设计本身就很复杂,后续单独开篇展开陈述。

RAG的架构:

RAG的不足:

RAG只是解决查询的问题,但很多时候不是“查询 -> 理解生成”这么简单的两步就能解决所有问题。有时候你需要在大模型理解之后继续执行很多业务流程。因此需要让大模型先帮你理解问题,基于理解结果告诉你怎么执行后续流程。也就是查询 -> 理解 -> 执行三步。后面的Plugin和Function call技术就是为了如何更好地衔接第二步和第三步。

Plugin:

很多软件系统的设计理念里都有插件机制,比如开发软件IDE,VS Code里装对应插件就能用各种编程语言。大模型的插件设计也是类似道理。比如ChatGPT插件,只要你按照下面三步开发出来的插件就能注册集成到ChatGPT,在合适的时机插件会被ChatGPT调用。

插件往往代表能完成一个实际业务诉求,比如购买机票。类似于手机应用市场上的一个应用。技术一点地讲,插件可能包含多个API,机票插件可能包含查机票、购机票、退机票等多个API。

OpenAI插件架构:

插件开发三步骤:

  1. 插件的户口本:按照ChatGPT要求的格式填写xxx.manifest文件,用来描述插件的基本信息。
  2. 插件的简历:按照OpenAPI规范填写xxx.yaml文件,用来描述插件具备的技能(每个API就是一种技能)。
  3. 插件的工作地:插件技能运行的服务器,即每个API的代码实现和部署运行。

插件的不足:

首先是生态难建设,症结都在于每家大模型都有各自的插件规范,同一个购买机票的应用系统想要成为M家大模型的插件需要开发M次,代价很大。

其实是大模型理解准确度难。因为插件是应用系统粒度,对于大模型来说,既需要理解插件自身的用途,也需要理解其内部API的用途,导致大模型的理解和调度插件的难度很大。对应用系统而言,每家大模型的理解和调度是黑盒的,插件的效果优化空间有限。唯一能优化的地方就是增加API描述和调用示例描述,但OpenAI格式表达的信息密度其实很低,优化效果不可控。

综上考虑,OpenAI于2024年1月推出了GPTs,一种能让用户自定义出Agent级别的AI助手应用,能覆盖Plugin的能力。更灵活、更强大。Plugin已于2024年4月彻底退出了历史舞台。

Function Call:

Function Call(以下简称FC)是函数调用,是在Plugin推出三个月后出现的一种大模型如何调用函数的协议。管理单元是函数或者叫API。懂编程的都知道函数意味着功能单一且原子,代表着能完成一件非常具体的任务,是软件功能的最小单元了。比如查机票、订机票、退机票就可以对应三个函数。

FC架构:

FC开发步骤:

  1. 函数说明书:通过functions字段传给大模型,通过name、description、parameters等字段描述每个函数的用途。网上资料很多,细节这里不赘述。

  2. 解析大模型生成结果,执行函数调用。当模型决定调用函数时,解析大模型返回的function_call字段,内容形如{“name”:“函数名”, “arguments”:json格式参数} 。

FC的优势:

FC的协议简洁,容易上手。各家大模型基本对齐Open AI的协议,因此FC也是至今大家大模型落地开发AI应用的非常重要的技术手段之一。

FC的劣势:

  1. FC的协议非标准:虽然市面上的大模型都基本对齐了Open AI,但每家有细微差别,代码移植时仍要做调整。
  2. 管理函数的复杂度高:以函数为管理单元,不易注册、分发和部署。不易复用现有系统的API。

MCP

MCP和FC其实没有本质区别,但比起FC我认为有两个改进:

  1. 行业标准化:从行业生态层拉齐了每家大模型的调用工具的规范。
  2. 大大降低了AI应用开发难度。因为以服务粒度来管理工具,通过client-server机制使得前后端分离解耦,开发人员可以专注于自己的模块。
  • MCP服务提供者不用 考虑各家大模型厂商的差异
  • AI应用开发者可以方便集成别人开发好的MCP服务

MCP架构

MCP的架构形式其实有很多种,这里给出一种仅作示意。后续文章展开。

MCP开发步骤:

  1. MCP Server开发:实现工具的业务逻辑,借助mcp sdk注册API能力。
  2. MCP Client开发:借助mcp sdk初始化并和MCP 服务建立连接、发起调用。
  3. MCP Host开发:即AI应用服务开发。它和用户交互、和LLM交互、创建和管理MCP Client。正是因为有了MCP Client和Server的解耦,MCP Host开发工作减少很多、功能扩展性高

综述:RAG、Plugin、Function Call和MCP的关系是什么?

RAG技术不仅仅是为了工具调用,更是为了让企业利用自家的行业知识提高大模型生成内容的质量。严格意义上讲RAG和FC及MCP不是完全对等的技术。

Plugin插件机制是AI领域技术发展过程中的一个短暂过渡技术。

MCP更像是FC的递进和增强,差异在标准化程度。MCP和FC显然并非对立,MCP甚至用到了FC技术来跟大模型交互。下一篇原理篇我们将详细展开。

一个行业的技术发展迈向成熟的一个重要标志就是标准化。只有标准化了才能降低应用门槛,才能激发企业和开发者创造丰富而实用的AI应用,进而给行业发展带来更多机遇。

同时不要忘了,不管是FC还是MCP,要想取得好效果很重要的一个环节是大模型本身的理解能力和性价比。正是因为DeepSeek等的出现把大模型推理能力拉到一个很高的水准,同时把推理成本降到很低的水平,才造就了MCP生态的日益繁荣。

读者福利大放送:如果你对大模型感兴趣,想更加深入的学习大模型**,那么这份精心整理的大模型学习资料,绝对能帮你少走弯路、快速入门**

如果你是零基础小白,别担心——大模型入门真的没那么难,你完全可以学得会

👉 不用你懂任何算法和数学知识,公式推导、复杂原理这些都不用操心;
👉 也不挑电脑配置,普通家用电脑完全能 hold 住,不用额外花钱升级设备;
👉 更不用你提前学 Python 之类的编程语言,零基础照样能上手。

你要做的特别简单:跟着我的讲解走,照着教程里的步骤一步步操作就行。

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

现在这份资料免费分享给大家,有需要的小伙伴,直接VX扫描下方二维码就能领取啦😝↓↓↓
在这里插入图片描述

为什么要学习大模型?

数据显示,2023 年我国大模型相关人才缺口已突破百万,这一数字直接暴露了人才培养体系的严重滞后与供给不足。而随着人工智能技术的飞速迭代,产业对专业人才的需求将呈爆发式增长,据预测,到 2025 年这一缺口将急剧扩大至 400 万!!
在这里插入图片描述

大模型学习路线汇总

整体的学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战,跟着学习路线一步步打卡,小白也能轻松学会!
在这里插入图片描述

大模型实战项目&配套源码

光学理论可不够,这套学习资料还包含了丰富的实战案例,让你在实战中检验成果巩固所学知识
在这里插入图片描述

大模型学习必看书籍PDF

我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
在这里插入图片描述

大模型超全面试题汇总

在面试过程中可能遇到的问题,我都给大家汇总好了,能让你们在面试中游刃有余
在这里插入图片描述

这些资料真的有用吗?

这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。
在这里插入图片描述
👉获取方式

😝有需要的小伙伴,可以保存图片到VX扫描下方二维码免费领取【保证100%免费】
在这里插入图片描述
相信我,这套大模型系统教程将会是全网最齐全 最适合零基础的!!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐