探索型任务的 Dual-Core-Delphi 工作流设计
仲裁 Agent 整合双方论点,提取共识区与分歧点,生成候选方案并附评估报告。元审视 Agent 独立检查:双方是否充分回应、有无稻草人谬误、合成是否真正超越原始立场、仲裁 Agent 是否存在立场偏见、是否遗漏关键维度。AI 在清晰边界内充分发挥生成与验证能力,通过对抗性探索提高突变质量,通过分层仲裁控制风险。仲裁 Agent 为追求共识度,倾向于选择中间路线,错失高风险的突破性方案。本文提出一
探索型任务的 Dual-Core-Delphi 工作流设计
一、问题背景
当前 AI 工作流面临两个困境。一是过度依赖人类驱动,每一步等待确认,效率低下。二是完全自主又缺乏约束,容易偏离目标或产生不可控风险。探索型任务尤其如此,既需要创造性突破,又需要边界控制。
本文提出一种分层架构:人类定义起点和边界,AI 在边界内自主探索,人类保留最终决策权,特定条件下可预授权自动执行。
二、核心架构
工作流分为四个阶段,依次衔接。
第一阶段,人类输入。提供三类信息:起点,即问题的核心诉求和背景;约束,包括资源限制、技术边界、可逆性要求;价值观与伦理底线,明确不可逾越的红线。
第二阶段,Dual-Core-Delphi 探索。三个 Agent 协作。Agent A 在选定维度上持激进立场,最大化突变可能。Agent B 持保守立场,最小化风险暴露。双方对抗生成,识别张力点。仲裁 Agent 整合双方论点,提取共识区与分歧点,生成候选方案并附评估报告。元审视 Agent 检查仲裁质量,识别偏见与盲区。
第三阶段,人类决策。审阅仲裁报告,选择方案或要求补充探索。特定条件下,此阶段可自动通过。
第四阶段,执行。确定型 Agent 按决议执行,产出可交付成果。
三、Dual-Core-Delphi 的运行机制
维度选择是关键。一次只选一个维度,两端分别是两种极端立场。例如表达力与简洁性、标准化与灵活性。多维度会分散对抗焦点,降低合成质量。
对抗过程采用动态温度。第一轮高温,双方充分展开极端立场。第二轮中温,针对性回应对方核心论点。第三轮低温,寻找收敛可能或确认不可调和的张力。
张力点是创造性所在。当双方论点互斥但各自在特定场景下有效时,仲裁 Agent 将其标记为设计抉择,而非对错判断。合成方案往往诞生于对张力点的重新框架。
仲裁报告包含五部分:双方共识基础、核心张力及各自适用场景、两个以上候选方案、各方案的涌现度与风险评级、推荐动作及理由。
元审视 Agent 独立检查:双方是否充分回应、有无稻草人谬误、合成是否真正超越原始立场、仲裁 Agent 是否存在立场偏见、是否遗漏关键维度。质量评分低于 0.8 时,触发补充对抗或引入新维度。
四、自动执行的条件与边界
为加速迭代,符合以下条件时,第三阶段可由系统自动通过,直接进入执行。
| 条件 | 阈值 | 检测方式 |
|---|---|---|
| 共识度 | ≥85% | 双方最终轮论点交集占并集比例 |
| 涌现度 | ≥0.7 | 合成方案与双方原始立场的语义距离 |
| 风险级 | 可逆 | 技术可回滚、无持久副作用、沙箱可验证 |
| 伦理合规 | 100% | 显式价值观检查清单全通过 |
| 历史匹配 | ≥90% | 与模式库成功案例的结构相似度 |
五个条件必须同时满足。任一不满足即触发人类裁决。
伦理合规实行一票否决。即使其他指标优异,触及价值观红线必须人工确认。这是预授权架构的底线。
历史匹配度用于识别已知模式。高匹配意味着该类型问题已有成功解决先例,系统置信度高。低匹配则提示新颖性,需更谨慎。
五、预授权的实质
自动执行并非跳过人类决策,而是将人类决策前置到边界设定阶段。人类通过初始输入中的约束和伦理定义,预先划定可接受的操作空间。只要 AI 探索结果落在空间内,即视为已授权。
这类似于空中交通管制:飞行员在航线内自主驾驶,管制员仅在偏离或异常时介入。人类从每一步的微观管理,转变为边界的宏观设定与异常的最终裁决。
六、风险与对策
长期运行存在两类风险。
一是伦理漂移。自动执行累积,系统可能逐渐压缩伦理检查的敏感度,将边缘案例纳入自动通过范围。对策是定期审计自动执行记录,随机抽样人工复核,发现漂移即收紧阈值。
二是对抗僵化。Agent 学习历史模式后,生成论点趋于套路,失去真正的突变能力。对策是每 N 轮强制引入随机扰动:更换维度、引入第三方 Agent、或临时反转立场角色。
三是合成平庸。仲裁 Agent 为追求共识度,倾向于选择中间路线,错失高风险的突破性方案。对策是元审视 Agent 单独评估"遗憾指数":若激进方案被压制,强制人类知情裁决。
七、迭代速度的优化
除自动执行条件外,另有机制加速循环。
并行探索。多个维度同时开启 Dual-Core-Delphi,各自独立运行,人类最终跨维度整合。
时间盒约束。每轮对抗限时,强制产出。超时的论点视为放弃。
快速裁决界面。人类决策阶段提供结构化选项,默认推荐方案一键确认,非默认方案需显式选择并简述理由。
执行与探索重叠。当前方案执行时,下一代探索已启动,形成流水线。
八、完整流程示例
以 API 设计为例。
人类输入:起点是设计 RESTful API 的批量操作端点;约束是可逆部署、向后兼容、两周内交付;伦理底线是用户数据不可泄露、操作必须可审计。
Dual-Core-Delphi 选择维度:表达力(支持复杂查询语法)vs 简洁性(仅支持简单 ID 列表)。
三轮对抗后,仲裁识别张力点:复杂查询的灵活性 vs 简单接口的可缓存性。合成方案提出分层设计:基础层支持 ID 列表保证简洁,扩展层支持查询语法但映射为内部标准格式。
元审视通过。历史匹配度 92%,有类似成功案例。风险可逆,可沙箱部署。伦理检查通过。
系统自动执行,生成 OpenAPI 规范与实现代码。人类同步审阅,无异常则继续。
九、结论
该架构的核心是将人类注意力重新分配:从过程监控转向边界设定与异常处理,从执行细节转向价值判断与责任承担。AI 在清晰边界内充分发挥生成与验证能力,通过对抗性探索提高突变质量,通过分层仲裁控制风险。
自动执行是效率工具,不是信任替代品。伦理一票否决、定期漂移审计、强制随机扰动,确保速度不以牺牲可控性为代价。
最终目标是人机协作的可持续演进:人类定义何为重要,AI 探索如何实现,双方在各自擅长的领域共同推进。
更多推荐



所有评论(0)