告别空谈,AI开始“动手”了:深入解析模型上下文协议(MCP)
每一次AI代理通过MCP执行的操作,都必须明确记录“是谁(哪个代理)”、“在何时”、“对什么系统”、“执行了什么操作”,并确保其权限受到严格管控。近期,大型语言模型(LLM)在解决复杂问题上的能力令人瞩目,但它们始终像是被困在数字世界里的“大脑”,缺乏与现实业务系统交互的“手脚”。这种渐进式的策略,能快速验证价值,降低落地阻力,并让团队在熟悉的工具栈上感受到AI带来的赋能。借助MCP,AI终于获得
摘要: 近期,大型语言模型(LLM)在解决复杂问题上的能力令人瞩目,但它们始终像是被困在数字世界里的“大脑”,缺乏与现实业务系统交互的“手脚”。模型上下文协议(MCP)的出现,正是在弥补这一关键缺失。本文将结合金融科技公司Block的先行实践,深入探讨MCP如何为AI装上“手脚”,以及在企业中成功落地MCP的关键考量。
一、问题的根源:能“说”不能“做”的AI
我们已经习惯于AI能够理解自然语言、生成代码、甚至进行逻辑推理。但当我们需要它执行一个具体的业务操作时——比如“查一下上个季度的销售数据,如果低于预期,就给销售主管发一封预警邮件”——AI往往就止步于“建议”层面。它能告诉你该怎么做,却无法亲自完成。
根本原因在于,AI模型与企业中早已存在的、数以万计的业务系统(如API、后台工具、工作流引擎)之间,存在一道鸿沟。真正的挑战并非从零开始构建AI原生应用,而是如何将强大的AI“大脑”安全、高效地接入到这些现有的、支撑着业务运转的“躯干”上。
模型上下文协议(MCP),正是为解决这一问题而生的。它不是另一个AI模型,而是一个标准化的“中间件”或“网关”,充当AI代理(Agent)与现有系统之间的翻译器和协调者。通过MCP,即便是那些陈旧或小众的内部工具,也能被AI即时调用和自动化。
二、MCP如何工作?一个实践案例
MCP的理念极其务实。让我们以Block旗下的Square商家为例,看看MCP是如何将自然语言查询转变为实际业务动作的。
-
现状:自然语言查询 一位商家可以向系统提问:“我店里的A商品库存还够撑过这个周末吗?” 系统通过LLM理解问题,查询库存数据后,给出一个文本答案。
-
未来(在MCP的加持下):代理驱动的行动 这位商家可以直接下达指令:“如果A商品库存不够撑过周末,就按照历史销售趋势,自动计算并订购足以应付的货量。”
在这个指令背后,一个AI代理将通过MCP执行一系列连贯操作:
-
调用库存API:通过MCP,向库存管理系统发起查询,获取实时库存水平。
-
调用销售数据API:通过MCP,从销售数据库(例如Snowflake)中提取历史同期的销售数据。
-
调用数据分析工具:可能是在Databricks环境中,分析销售趋势,预测周末所需库存量。
-
调用采购API:计算出需要补充的订单量,并通过MCP向供应商系统自主下达采购订单。
-
生成报告:将整个操作流程、数据和结果汇总,并发布到内部知识库(例如Google Docs)。
(这是一个示意图,展示AI代理通过MCP与各类后端系统API交互)
在这个流程中,MCP就像一个标准化的“插座板”,而各种系统API就是不同规格的“插头”。AI代理无需关心每个“插头”的具体实现细节,只需通过MCP这个标准“插座”,就能与所有连接的系统进行对话和交互。这种解耦的设计,极大地提升了系统的灵活性和可扩展性。
三、Block的MCP实践:从开发者工具到生产力平台
在Block,MCP最初只是一个小型工程团队的内部工具,如今已演变为一个覆盖全公司的平台。在其10,000名员工中,有60%每周都会使用它来自动化复杂的工作流。这不仅仅是工程师的专利,法务、销售、市场等各个部门都在受益。
以下是两个极具说服力的应用案例:
-
风险分析与欺诈检测 传统的欺诈案件分析,需要风险分析师花费数天时间手动审查交易数据、关联账户信息。现在,分析师只需通过自然语言下达指令,例如“全面分析与用户X相关联的所有可疑交易,并生成欺诈风险报告”。基于MCP的AI代理(Block内部称为Goose)能迅速协调后台多个风控系统,在短时间内完成以往需要数天才能完成的分析工作。
-
销售线索的深度分析 Block的销售运营团队曾面临一个艰巨的任务:分析81,000个销售线索,并制定分发策略。传统的人工分析预计需要数周时间。借助Goose和MCP,团队成员直接通过自然语言连接到Databricks中的潜在客户数据,进行模式分析,并最终生成了分发建议。整个过程,从数据接入、分析到策略生成,仅用了一个小时。
这些案例雄辩地证明,MCP带来的不是微小的效率提升,而是生产力的量级跃迁。
四、成功实施MCP的三个关键考量
将MCP引入企业并取得成功,并非一蹴而就。根据Block的经验,以下三点至关重要:
-
优先赋能现有工具,而非推倒重来 代理架构的最大优势在于它能“利旧”。不要试图抛弃那些虽然陈旧但依然稳定运行的系统。从最有价值的现有工具和流程入手,为它们构建MCP适配器(Adapter)。这种渐进式的策略,能快速验证价值,降低落地阻力,并让团队在熟悉的工具栈上感受到AI带来的赋能。
-
安全与可追溯性必须置于首位 当AI开始“动手”操作真实世界的系统时,安全便成为头等大事。尤其在金融服务领域,任何操作都必须有迹可循。在设计之初,就必须构建强大的身份验证、清晰的审计跟踪(Audit Trail)和细粒度的权限控制。每一次AI代理通过MCP执行的操作,都必须明确记录“是谁(哪个代理)”、“在何时”、“对什么系统”、“执行了什么操作”,并确保其权限受到严格管控。
-
默认拥抱开源 技术生态的繁荣离不开开放与共享。Block已经将其内部的许多MCP实现开源。这不仅仅是分享代码,更是邀请整个社区共同构建一个更强大的生态系统。开源能带来网络效应:社区中任何一个成员贡献一个新的适配器或端点,整个生态中的所有参与者(以及他们的AI代理)都将立即受益。这会极大加速技术标准的成熟和应用范围的扩大。
五、未来展望:MCP将成为Agent时代的基础设施
随着协议的不断成熟,MCP有望成为开发者工具包中的基础部分,就像今天的REST API或容器标准一样无处不在。AI的真正价值,在于它能深入到业务流程中,释放那些早已构建但未被充分利用的系统的潜力。
代理自动化的时代已经到来。借助MCP,AI终于获得了执行具体任务的“手脚”,能够以安全、可控、高效的方式,为全球各地的企业和工作带来真实而持久的变革。
更多推荐
所有评论(0)