Agentic 组织-人和智能体协作的组织形态
当下我们畅谈 AI、LLM、MCP、Agent 等概念,在现有的工作流程中引入 AI 作为提效工具,比如 AI CodeReviewer;或者尝试构建数字员工完成某些岗位的工作,比如 AI Coder 完成大部分程序员的工作。这种定位源于一个我们根深蒂固的认知,即 AI 它不是一个活物,跟我们办公桌上的计算器没有区别,毕竟现在的人工智能的表现跟人工智障没有太大区别,即使是 AI 最擅长的写作领域,
我们对 AI 的定位
当下我们畅谈 AI、LLM、MCP、Agent 等概念,在现有的工作流程中引入 AI 作为提效工具,比如 AI CodeReviewer;或者尝试构建数字员工完成某些岗位的工作,比如 AI Coder 完成大部分程序员的工作。这种定位源于一个我们根深蒂固的认知,即 AI 它不是一个活物,跟我们办公桌上的计算器没有区别,毕竟现在的人工智能的表现跟人工智障没有太大区别,即使是 AI 最擅长的写作领域,文字读起来也一股 AI 味儿。
那么,我们将视线延长到 5-10 年,那个时候我们的组织里,会不会人和 AI 都是公司的员工,甚至 AI 员工完成大部分的工作,人类只负责设计和决策,这样看来,今天我们是不是就从这个定位来设计我们的 AI Agent,将所有的工作任务进行分类,将 AI 擅长的任务交给 AI,将 AI 视作跟我们同样的活物。
AI 和人的协作关系
先说结论,AI 和人的关系会经历三个阶段:1)人充当 AI 的哺育者,一点一点把 AI 养大 2)AI 充当人的助手,人在这个过程中将大量的行业标准知识教会给 AI,让它能给完成一些确定的,单一目标的事。3)AI 成为专家,可以基于标准的行业知识诊断问题、规划如何处理问题等。
在我看来,AI 的自主感知、决策、规划都是局限在单一职责、单一目标的执行层的,即使具有一定的感知、决策和规划也是需要大量行业知识标准化的沉淀,是一个大量人工投入之后的过程,从这个过程中看人和 AI 的协作关系是哺育孩子的过程。
AGI 至少目前看起来实现还比较遥远,领域 AI 大概率长期存在,就像专科医生一样,那么面对一个疑难杂症,人需要对问题进行抽象、设定目标、规划出执行路径,然后交给对应 AI 去处理。在这个过程中遇到无法决策的时候,人介入指出后续的动作。人和 AI 相比,强项在于 Know How,这种关系有点像助手,助手更重要的是把事情做正确,而人更多地是识别出什么是正确的事,如何正确地做事。
在百度百科给出的介绍中,AI Agent 可自主感知、决策、规划和调用工具,给人的感觉就是上天入地、无所不能,那 AI 的边界在哪里,能够完全取代人吗?这个问题没有答案,正是大家对于 AI 未来会产生自我意思,最终会消灭人类的恐惧所在。当然,在 5-10 年这种消灭人类可能不是物理消灭,而是通过更高的工作效率让人失去工作。这个时候的 AI 就像人的大脑经过反复训练之后,某些突触结构已经发生了变化,形成了固定的知识结构。
关于多智能体系统架构
多智能体架构(multi-agent artifact system, mas) 被认为是分布式系统架构思想的延续,这种架构模式的核心思想在于分而治之, 就是我们常说的专业的人干专业的事情,突破个体效率提升的瓶颈,采用组织的力量来实现更复杂问题的求解, 就像单人作坊无法跟工厂、公司的力量相比一样.
从单智能体向多智能体演进的边界条件
从最开始的创意到最终的庞大多智能体系统演进的过程中, 必定出现一个时刻,那就是单智能体无法满足下一步的要求,必须切换到多智能体架构模式,那这个临界点如何定义呢?
这个问题有点类似微服务时代, 从单一服务架构向微服务架构演进的临界点如何定义一样, 从哪些维度来评估, 这些维度指标的阈值又是怎么样的呢?有没有一些可参考的内容呢?
最开始我没有结论,但是我采用了归纳法来推演,以下是我的一些推导逻辑:
-
我是一名资深 SRE 工程师, 我们知道最开始大家都在以个人为单位手动登陆服务器运维,这个时代其实非常低效,谈不上任何智能,甚至辅助工具也不多,可能只有 shell 等脚本工具.
-
随后我们进入了大规模运维工具辅助的时代,比如 ansible 这样的脚本编排工具,可以批量对大规模服务器进行批量化按装部署,这个时候一个人所能干的事情想较于之前提升 10 倍都是可能的.
-
当这样的个人越来约多时,效率不再成为瓶颈,反而大规模并发运维动作之间如何有序进行,如何避免彼此之间产生影响, 如何将标准化的工具、流程提供给所有运维人员使用,这时候运维平台就产生了.
4)当运维平台通过自助式服务面向运维人员提供服务后,平台承担了工具属性和执行调度属性,这就像道路上需要红绿灯一样,没有红绿灯可能在局部提升了通行效率,但是在车流量达到一定规模后,事故会更多,通行效率也会降低.
5)运维平台在提供了自助服务功能之后,效率、调度的任务也基本满足了,这时候我们发现风险和效率之间如何找到平衡是最难的点,特别是某些对稳定性有着强诉求的行业,比如金融行业.
6)对于金融行业,所有可能影响生产环境服务质量的运维操作都叫变更,在互联网行业经历了容器化、微服务、CICD 等一系列变革之后,大规模的变更效率和强稳定性要求的冲突达到了极致
这时候,我们认为这个平衡点如何把握出现了混沌的状态,单一要素已经无法满足对复杂系统的描述,就像线性函数已经无法满足描述三个星体的混沌状态一样,这个时候引入多个智能体(我们认为具有独立感知、决策、规划和执行能力)就势在必行.
多智能体系统的设计目标和架构模式
多智能体在面对复杂系统问题时,其目标往往不是一个标准答案,就像不是已知距离和速度求时间一样, 在金融交易系统中,变更操作的风险往往来自多种形式、多种维度、多个阶段,跟人、流程、工具等等都有关系,在这样一个复杂系统中, 多智能体系统的设计目标通常是确保对线上服务的质量影响最小的情况下,在最快的时间内止血和恢复,在这个过程中最大限度地调动各种资源,如数据资源、算力资源、经验知识库等.
这一点有点像 DeepMind 在围棋对弈的场景, 在确保己方获胜的前提下, 最快速地找到目标的达成路径, 在这种模式下,两种不同的策略得出的建议结论可能不同,甚至可能完全相反,这时候我们就需要讨论架构模式的定义问题了.
对于多智能体系统的架构,我们通常采用一个监督智能体作为 Leader,多个专家 agent 负责各自领域的调查、分析和建议.这个时候有点像刑侦片中的破案, 弹道、足迹、指纹、社工等多个领域的专家会针对线索给出分析结论,有时候这些结论会互相补充, 在某些特殊的时候,这些结论可能背道而驰,这时候需要一个角色来负责仲裁和决策.
总结
多智能体系统的架构本质上跟人类世界处理复杂问题的模式类似, AI 智能体的定位可以设定为专科医生,通过将行业的 Know How 进行标准化,让 Agent 可以替代人更高效地进行特定领域的理解、分析和执行, 让人类更专注在如何对问题进行切分,规划任务的执行步骤, 将智能体定位为和人类一样的活物,这个可能是从顶层设计上需要首先思考的问题.
更多推荐



所有评论(0)