阿里云专家计缘分享的《AI应用&AI Agent开发新范式2.0》系统阐述了AI Agent的最新发展。报告指出AI Agent已从简单工具进化为"大脑"(LLM)、“手”(工具)和"记忆"(存储)构成的智能系统。MCP协议作为AI Agent的"通用接口",解决了不同模型和系统间集成难题。技术报告还介绍了AI Agent的构建模式、运行时与可观测性,以及企业级MCP管理实践,为AI Agent的开发和应用提供了全面指导。

阿里云专家计缘上个季度分享了一份技术报告《AI应用&AI Agent开发新范式2.0》,如下:

该技术报告系统性地阐述了AI应用,特别是AI Agent的最新发展趋势、核心架构、关键技术以及最佳实践。其核心思想是,AI Agent的开发已经从简单的工具调用,进化为一个由“大脑”(LLM)、“手”(工具/技能)和“记忆”(长期/短期记忆)构成的复杂智能系统,并且正在形成一套标准化的开发范式。

1. AI应用与AI Agent的范式演进

1)从被动工具到智能伙伴:技术报告开篇指出,AI应用正从被动的命令处理工具,演变为能够理解意图、规划任务并执行的“智能伙伴”。

2)AI Agent的核心架构:AI Agent的核心是一个双引擎模式,由LLM和AI Agent(执行者)协同工作。

  • LLM(大脑)

    负责认知功能,包括理解用户意图、进行任务规划、推理和决策。

  • AI Agent(执行者)

    负责行动功能,通过调用各种工具(如数据库、API、文件系统)来执行LLM规划的任务,并与环境交互,形成“思考-行动-观察-再思考”的闭环。

3)AI Agent的三大核心:技术报告强调,一个完整的AI Agent系统必须包含三个核心部分:

  1. 大脑

    即LLM,负责推理。

  2. 记忆

    存储服务(如NoSQL或向量数据库),用于记住目标、偏好和过往交互,支持多步骤执行和自省。

  3. 即各类工具(MCP Server),为Agent提供外部能力。

2. MCP协议:AI Agent的“通用接口”

  • MCP的定义与价值

    MCP(Model Context Protocol)是一个开源协议,旨在为LLM提供一个标准化的接口,使其能够以一致的方式连接到各种外部数据源和工具(如文件、数据库、API)。它被比喻为AI领域的“USB-C接口”,解决了不同模型和系统之间集成的“N×M”难题,极大地简化了开发。

  • MCP的核心机制

    MCP的核心并非一个固定的数据结构,而是一个通过自然语言描述的系统提示词(System Prompt)。这个提示词会告诉LLM有哪些MCP Server可用,每个Server能提供什么工具(MCP Tool),以及如何调用这些工具。LLM会根据这个描述,结合用户的问题,推理并选择最合适的工具来执行任务。

  • MCP与Function Calling的区别

    Function Calling是大模型厂商提供的专有能力,将函数调用抽象为客户端-服务器架构。而MCP是一个通用的协议层标准,不绑定任何特定模型或厂商,将复杂的函数调用抽象为更通用的客户端-服务器架构,是更底层的标准化。

3. AI Agent的构建模式与类型

技术报告将AI Agent的构建模式分为两大类:

  • 编码式构建

    开发者使用代码(如LangChain, LangGraph, Spring AI等)来构建Agent,灵活性高,但开发成本和复杂度也高。

  • 低代码式构建

    通过可视化工具(如阿里云的AIStudio、百炼、Dify等)拖拽组件来构建Agent,降低了开发门槛,适合快速迭代和业务场景的AI增强。

同时,技术报告还根据Agent的用途将其分为三类:

  1. 辅助基模的AI Agent

    帮助LLM进行编码、联网搜索等,通常由基模公司构建。

  2. 作为独立产品的AI Agent

    如OpenManus、MiniMax Agent等,主要面向用户解答问题和规划任务。

  3. 辅助现存业务的AI Agent

    与企业现有业务系统(如CRM、ERP)深度耦合,是目前企业客户最关心的类型,通常采用低代码方式构建。

4. AI Agent的运行时与可观测性

  • 运行时(Runtime)

    技术报告重点介绍了函数计算(FC)作为AI Agent运行时的最佳实践。FC提供了事件驱动、弹性伸缩、高可用的计算环境,可以作为Agent的“运行引擎”或“沙箱环境”。

  • 作为Runtime

    直接运行用户编写的Agent代码。

  • 作为Sandbox

    为Agent提供一个安全的执行环境,防止其对真实世界造成意外影响。沙箱环境需要支持代码执行、文件系统隔离、进程隔离、网络隔离和资源管理。

  • 可观测性(Observability)

    技术报告强调了构建可观测体系的重要性,以应对AI应用的复杂性。这包括:

  • 日志(Logging)

    记录详细的调用日志。

  • 指标(Metrics)

    监控性能指标,如QPS、RT、错误率、Token消耗等。

  • 链路追踪(Tracing)

    实现端到端的全链路追踪,将用户请求、网关、模型服务、外部工具等所有环节串联起来,便于问题诊断。

5. 云原生API网关与AI网关

  • 云原生API网关

    作为流量、服务和安全的统一入口,它集成了高性能、高可用、安全防护和灵活的插件机制。技术报告特别强调了其作为“AI网关”的能力,能够代理LLM服务、管理MCP服务、提供内容安全防护、实现多模型切换和限流降级等。

  • AI网关

    是云原生API网关在AI场景下的具体应用,它为AI应用提供了统一的接入、管理和安全能力。

6. 企业级MCP管理与实践

技术报告提出了一个关键的解决方案:MSE Nacos MCP Registry。它将MSE Nacos(阿里云的注册中心)与MCP协议相结合,为企业提供了一个企业级的MCP服务统一管理平台。其核心优势在于:

  1. 零代码改造

    通过在Nacos中配置[Server Name]-mcp-tools.json文件,可以将现有的传统服务(如SpringCloud、Dubbo服务)快速、零代码地转换为MCP服务。

  2. 统一管理

    在MCP Registry中统一管理所有MCP服务的元数据、配置和能力。

  3. 安全与治理

    提供基于消费者的身份认证、权限管控、数据权限管理和安全审计等能力。


如何系统学习掌握AI大模型?

AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。

在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 大模型行业报告

行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

在这里插入图片描述

5. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

6. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐