探索者的崛起:从执行指令到主动发现,解构 AI 智能体的“蜕变”之路

在 AI 的进化史中,我们正处于一个关键的临界点。如果说过去的智能体(Agent)是 “熟练的地图使用者”,那么未来的智能体将是 “勇敢的制图师”

今天,我们将结合《智能体设计模式》第二十一章“探索与发现”的核心理念,深入剖析最近在开发者圈备受关注的 Clawdbot >> Moltbot。看看顶级的 AI 助手是如何通过自我决策和架构演进,识别那些人类都未曾察觉的“未知之未知”。


一、 核心范式:什么是“探索与发现”模式?

传统的 AI 往往处于反应模式:你提问,它回答;你给指令,它执行。但在复杂、动态的现实环境中,静态的知识永远不够。

探索与发现模式要求智能体具备自主性:

  1. 进入陌生领域:主动寻找新信息,而非被动等待输入。
  2. 尝试新方法:在预定义方案失效时,生成新的假设。
  3. 识别未知之未知:发现那些不仅是你不知道,甚至是你“不知道自己不知道”的变量。

二、 科学巅峰:Google Co-Scientist 与 Agent Laboratory

为了理解这种模式的威力,我们先看它在科研领域的“最高形态”。

1. Google Co-Scientist:数字科学家团队

Google 开发的协作科学家系统不再是单一的模型,而是一群具备特定角色的智能体:

  • 生成智能体(Generation Agent):负责通过阅读海量文献,提出初步的科学假设。
  • 反思智能体(Reflection Agent):扮演“毒舌”同行,专门挑刺,评估假设的逻辑和新颖性。
  • 排名智能体(Ranking Agent):让不同的假设进行“辩论”,根据表现进行排名。
  • 演化智能体(Evolution Agent):把排名靠前的优秀点子进行融合、简化和升华。
  • 战绩: 该系统在急性髓系白血病(AML)研究中,独立发现了一些之前从未被报道过的潜在药物靶点(如 KIRA6),并经过了真实的实验室验证!

2. Agent Laboratory:学术层级模拟

由 MIT 团队启发的 Agent Laboratory 则更进一步,它模拟了一个完整的实验室层级:

该系统将研究过程分给了不同的角色,每个人各司其职:

角色 职责描述
教授智能体 (Professor) 负责定方向、提问题、委派任务给学生。
博士后智能体 (Postdoc) 干活的主力。写代码、做实验、查文献、写论文。
评审智能体 (Reviewer) 模拟同行评审,确保结果的严谨性。
工程师智能体 (MLE/SWE) 辅助博士后,写数据预处理脚本。

核心代码逻辑:如何让 AI 评审论文?

系统会调用三个不同倾向的评审员来评估同一份报告,以模拟真实的学术评审环境:

class ReviewersAgent:
    def inference(self, plan, report):
        # 评审员 1:侧重实验洞察
        reviewer_1 = "你是一个严厉但公平的评审员,你期待那些能为研究课题带来深刻洞察的优秀实验。"
        
        # 评审员 2:侧重领域影响力
        reviewer_2 = "你是一个严厉、挑剔但公平的评审员,你正在寻找那些在该领域具有重大影响力的点子。"
        
        # 评审员 3:侧重创新性
        reviewer_3 = "你是一个严厉但公平、且思想开放的评审员,你正在寻找那些前所未有的新颖想法。"

        # 返回三个人的综合评价
        return f"评审员 #1:\n{review_1}, \n评审员 #2:\n{review_2}, \n评审员 #3:\n{review_3}"

# 各自给出评分 get_score 函数中的提示词模板(已翻译为中文理解)
template_instructions = """
请按以下格式回复:
思维过程 (THOUGHT):
<你的思考过程>
评审 JSON (REVIEW JSON):
<具体的 JSON 数据>

在 <THOUGHT> 部分,简要讨论你对这份评估的直觉和推理。
在 <JSON> 部分,提供以下字段:

* "Summary": 论文内容及其贡献的总结。
* "Strengths": 论文的优点清单。
* "Weaknesses": 论文的缺点清单。
* "Originality": 原创性评分(1-4分:低、中、高、极高)。
* "Quality": 质量评分(1-4分)。
* "Overall": 总体评分(1-10分,1分是强烈拒绝,10分是获奖级别)。
* "Decision": 最终决定(只能选“接受 Accept”或“拒绝 Reject”)。
"""
#博士后智能体需要“边做边学”,它会记录前一轮实验的结果来优化下一轮:
class PostdocAgent(BaseAgent):
    def context(self, phase):
        # 如果是第二轮实验,它会加载之前的“记忆”
        if self.second_round:
            sr_str = (
                f"以下是之前实验的结果:\n",
                f"之前的实验代码: {self.prev_results_code}\n"
                f"之前的评审意见: {self.reviewer_response}\n"
            )
        # 根据当前阶段(制定计划或解读结果)返回不同的信息
        if phase == "plan formulation":
            return (sr_str, f"当前文献综述总结: {self.lit_review_sum}")

  • 教授 (Professor):定战略方向。
  • 博士后 (Postdoc):写代码、跑实验、写论文。
  • 评审员 (Reviewer):挑刺、纠偏。

这种 “生成-辩论-演化” 的结构化思维,让 AI 能够从海量文献中主动发现创新的缝隙。


三、 Clawdbot 改名为 Moltbot:私人助手的“蜕变”

如果说科研助手离我们很远,那么 Moltbot (源码见: github.com/moltbot/moltbot) 则展示了这种模式如何改变私人助理。

1. 设计架构:能力 (Capabilities) 的动态注入

传统的机器人是静态的,它的工具箱是锁死的。而 Moltbot 的架构采用了运行时与能力分离的设计:

  • 动态扫描:面对新问题,它会实时检索其“能力库”,甚至通过阅读文档来学习使用新工具。
  • 环境扎根 (Grounding):它对操作环境有极深的感知,每一步行动都会捕获环境的“状态快照”,作为下一步决策的依据。

2. 自我决策:基于“惊奇度”的策略重构

Moltbot 最迷人的地方在于它的名字——Molt (蜕变)。它不仅仅是修正错误,而是当发现环境反馈与预期严重偏离时,彻底否定旧方案,长出新方案。

其决策核心逻辑包含一个惊奇度 (Surprise Score) 计算:

当“观察值”与“预测值”之间的散度(Divergence)超过阈值时,Moltbot 会触发 molt() 机制:

  1. 停止当前执行流
  2. 提取新信息中的隐含约束
  3. 重新进行全局规划

深入分析 Moltbot 的源码及其设计哲学,我们可以清晰地看到 AI 智能体正从“被动执行指令”向“主动探索环境”发生的质变。Moltbot 不仅仅是一个代码库,它代表了 Agentic AI 在处理复杂、长程任务(Long-horizon tasks)时的一种进化范式。

以下是结合 Moltbot 架构与决策机制,对智能体“探索与发现”方向的深度解析:


1️⃣、 Moltbot 的设计架构:基于“动态能力注入”的进化体

传统的智能体架构往往是静态的(Prompt + Fixed Tools),而 Moltbot 采用了更具生命力的模块化设计。

1. 核心架构:能力(Capabilities)与运行时(Runtime)的分离

Moltbot 的核心不预设所有工具,而是定义了一套标准接口。

  • 按需加载: 智能体在面对未知任务时,会首先扫描其“能力库(Capability Registry)”。
  • 动态扩展: 当它发现现有工具不足以解决问题时,它的架构允许它寻找、安装甚至“学习”如何使用新工具。这正是第二十一章中“主动进入陌生领域”的体现。

2 . 环境感知层(Environmental Grounding)

Moltbot 的架构强调对操作环境的深度感知。它不只是发送一个 API 请求,而是会监控环境的实时状态(State Snapshot),并将状态回传给推理引擎。


2️⃣、 自我决策方式:递归推理与策略“蜕变”

Moltbot 的命名(Molt,意为蜕变)揭示了其决策的核心:根据反馈否定自我,实现策略重构。

1. 递归思维链(Recursive Reasoning Loop)

Moltbot 的决策过程可以用一个动态优化的逻辑公式表示:
S t + 1 = Argmax a ∈ A [ P ( Success ∣ S t , a ) + λ ⋅ I ( a ; E ) ] S_{t+1} = \text{Argmax}_{a \in A} \left[ P(\text{Success} | S_t, a) + \lambda \cdot I(a; E) \right] St+1=ArgmaxaA[P(SuccessSt,a)+λI(a;E)]

其中, I ( a ; E ) I(a; E) I(a;E) 代表信息增益(Information Gain)。Moltbot 在决策时,不仅考虑动作 a a a 是否能成功,还会衡量这个动作能让它对环境 E E E 产生多少新的认识。

2. “蜕变”触发机制:不确定性驱动的路径切换

在源码中,Moltbot 的决策逻辑包含一个关键的监控器(Monitor)

  • 低置信度检测: 当执行路径的预期收益低于阈值,或者环境反馈与预测模型严重偏离时。
  • 放弃与重构: 它会触发 molt() 操作——舍弃当前的计划缓存,重新进行全局规划(Global Planning)。这种“断臂求生”的决策方式,避免了传统 Agent 容易陷入的死循环。

3️⃣、 智能体探索与发现的三个新方向

通过 Moltbot 的实践,我们可以预见智能体未来的三个关键演进:

1. 从“已知工具”到“工具发现”(Zero-shot Tool Discovery)

未来的智能体不再需要开发者写死每个工具的说明。

  • Moltbot 的启示: 智能体可以自主阅读一段 API 文档,通过“探索性调用”测试其边界,然后将其纳入自己的工具箱。这使得智能体能够处理研发、逆向工程等高门槛任务。

2. 识别“未知之未知”(Uncovering Hidden Constraints)

普通的 Agent 只能解决“说明书里提到的问题”。

  • Moltbot 范式: 智能体在操作时会进行“压力测试”。例如,在管理文件系统时,它会主动测试权限边界,从而发现隐藏的系统限制。这种对环境边界的 探测(Probing) 是实现真正自主性的前提。

3. 协作式探索(Multi-agent Symbiosis)

在 Moltbot 的愿景中,探索不是孤立的。

  • 知识共享: 当一个智能体实例发现了某种新策略(例如一种绕过特定软件报错的独特配置),这种发现可以被编码并同步给其他实例。这模仿了科学共同体的同行评审与知识累积

4️⃣、 代码层面的深度解读(以 Moltbot 逻辑为例)

在 Moltbot 的伪代码逻辑中,我们可以看到它是如何平衡“执行”与“发现”的:

# 模拟 Moltbot 的核心决策循环
def molting_decision_cycle(task_goal, current_state):
    plan = generator.create_initial_plan(task_goal)
    
    while not goal_reached(current_state, task_goal):
        action = plan.get_next_action()
        observation = environment.execute(action)
        
        # 核心:计算观察结果与预期的“惊奇度”(Surprise Score)
        surprise_score = calculate_divergence(observation, plan.expected_outcome)
        
        if surprise_score > CRITICAL_THRESHOLD:
            # 触发“蜕变”:发现新信息,重构全局认识
            log("发现未知变量,正在重构策略...")
            new_knowledge = knowledge_extractor.infer(observation)
            plan = generator.replan_with_new_knowledge(task_goal, new_knowledge)
        else:
            # 正常迭代
            current_state = update_state(current_state, observation)


5️⃣、 通往“通用人工智能助理”的必经之路

Moltbot 的设计架构和决策方式证明了:一个强大的智能体,必须首先是一个优秀的探险家。

  • 设计上: 必须是松耦合、可插拔的,能够随时接纳新发现的知识。
  • 决策上: 必须具备元认知(Metacognition)能力,能够意识到“我不知道”,并主动去寻找答案。

这种从执行到探索的转变,正是智能体从“自动化脚本”进化为“智慧助手”的关键。

四、 智能体探索的新边界:我们正在通往何方?

结合 Moltbot 的源码实践,智能体的探索能力正朝着三个方向突进:

1. 从“用工具”到“找工具”

未来的助理不需要你告诉它每个 API 怎么用。它能像人类一样,通过尝试和查看报错信息,自主学会使用一个新的软件界面。

2. 识别“隐含约束”

当你让助理“安排一次会议”时,它能通过探索发现两个高管之间潜藏的日程冲突或偏好,而这些信息可能从未出现在公开的日历上。

3. 协作式演化

就像 Agent Laboratory 中的多评审员制度,未来的私人助理会通过多个内部副本的“自我辩论”,在最终回复你之前,已经排除了那些高风险或低效率的方案。


五、 结语:拥抱“不确定性”

“一个强大的智能体,必须首先是一个优秀的探险家。”

探索与发现模式的成熟,意味着 AI 正在从“工具”转化为真正的“伙伴”。它不再仅仅是复读人类的知识,而是具备了在复杂世界中自主寻路、自我修正、甚至“通过错误学习”的能力。

当你的私人助手开始对你说:“我发现你之前的方案里隐藏了一个风险,建议我们尝试这个新方法” 时,你就知道,你正在使用的是一个具备“蜕变”能力的智慧生命。


参考资料:

1.Exploration-Exploitation Dilemma: A fundamental problem in reinforcement learning and decision-making under uncertainty. https://en.wikipedia.org/wiki/Exploration–exploitation_dilemma
2.Google Co-Scientist: https://research.google/blog/accelerating-scientific-breakthroughs-with-an-ai-co-scientist/
3.Agent Laboratory: Using LLM Agents as Research Assistants https://github.com/SamuelSchmidgall/AgentLaboratory
4.AgentRxiv: Towards Collaborative Autonomous Research: https://agentrxiv.github.io/
5.Antonio Gulli 《Agentic Design Patterns》
6.https://github.com/moltbot/moltbot

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐