当低成本 AI 卡在复杂 Bug 上,「上级顾问 MCP」 教你用“AI 指导 AI”
上级顾问 MCP 是一个面向真实开发卡点的模型协作实践,核心解决“知道有问题却修不好”的 AI 编程困境。项目通过引入「AI 指导 AI」的分层工作流,由高能力模型负责问题拆解与解题思路,低成本模型执行具体编码,在质量与成本之间取得平衡。整体跑通了从受阻、对齐、指导到执行的完整工程闭环,适用于复杂 Bug、架构评审与成本敏感型开发场景。
本文源自 GLM Coding 日常投稿获奖作品,原文作者为 black999cat 。
数万开发者严选的编码搭子 GLM Coding Plan
推荐语:
这是一个源于真实开发卡点的 MCP 实践项目,聚焦在复杂问题中部分模型“知道有错却修不好”的典型场景,并给出了一套 “AI 指导 AI” 的分层协作工作流。项目完整跑通了从模型受阻、GLM-4.7 介入、多轮对齐澄清,到指导回传并完成编码的工程闭环。
在实现上,上级顾问 MCP 明确区分了不同模型的职责边界:GLM-4.7 仅负责问题拆解与解题思路,低成本模型负责具体编码执行,并通过多轮交互对齐与上下文管理机制,兼顾了解题质量与成本控制。
大家好,我是 black999cat。作为一个独立开发者,最近我正在折腾一个本地化的 MCP 项目 —— 上级顾问MCP。
项目地址: https://github.com/LZMW/mcp-aurai-server
在这个开发过程中,我遇到了一件非常有趣的事情:我发现让一个 AI 去指导另一个 AI 写代码,竟然比自己亲自上手还要高效,而且特别省钱!

一、问题的发现
事情是这样的,当时我在扣子空间进行开发,主要使用自带的"豆包"模型来进行自然语言编程。平心而论,豆包是个不错的助手,但在关键时刻它真的有点"死脑筋"。
当时程序在关键功能上卡住了,明明代码逻辑有问题,豆包却陷入了一种"薛定谔的修 Bug"状态——它知道有错,也解释了为什么错,但给出来的修复方案永远跑不通。
这就好比你跟一个人说"门锁了",他一直在努力"推门",却不知道要去找钥匙。
在豆包挣扎了无数次后,我决定用点"土办法"。我单开了一个窗口,使用了当时号称更高级的模型 —— GLM-4.7。
二、意外的转机
我的思路很明确:既然豆包解释不清现状,我就把它的"遗言"发给 GLM-4.7,同时多问了一句至关重要的话:
“这是豆包给出的错误代码和它的分析,它说这里有问题但修不好。你能帮我看看,到底应该怎么指导它?”
结果让我大吃一惊!

GLM-4.7 不仅一眼看穿了问题本质,还给出了清晰的解题思路,并且明确指出:“你应该让豆包把注意力放在 X 方面,而不是一直在 Y 上死磕。”

我按照 GLM-4.7 的建议,把这段指导原封不动地转达给豆包。然后…奇迹发生了!

之前死活搞不定的豆包,居然立刻就写出了正确的代码!全程不到 5 分钟!

三、核心洞察
这次经历让我产生了两个重要洞察:
1. "AI 指导 AI"的意外效率
为什么 GLM-4.7 的几句话就能点醒豆包?
关键在于上下文的专业性:
- GLM-4.7 没有陷入具体的代码细节,而是从更高维度分析问题本质
- 它给出的解题思路和关键提示正好补上了豆包的认知缺口
- 豆包本身具备写代码能力,只是缺少正确的方向指引
这就像一个经验丰富的架构师指导初级工程师——有时一句点拨,胜过自己摸索半天。
2. 极具性价比的"套娃"工作流
更妙的是,这种模式不仅高效,还特别省钱:
传统模式:
高级 AI (高成本) → 完成所有工作 = Token 消耗巨大
套娃模式:
基础 AI (低成本) → 基础编码工作
↓ (遇到难点)
高级 AI (高成本) → 仅提供解题思路和关键指导
↓
基础 AI (低成本) → 继续完成具体编码 = Token 消耗最小化
我们完全可以用免费的或低成本的 AI 做基础的编码工作。一旦遇到搞不定的难点,就让它停下来,去请教更高级(但也更贵)的 AI。
高级 AI 只负责生成"解题思路"和"指令",基础 AI 负责具体的"搬砖写码"。
这样一来一回,既解决了难题,又避免了全程使用高级 AI 消耗的大量 Token 成本。对于我们这些独立开发者来说,这绝对是兼顾质量与钱包的最佳实践!
四、项目实现:上级顾问MCP
受到这次经历的启发,我着手开发了上级顾问MCP——一个多轮交互式 AI 顾问系统,为本地 AI 提供专家级指导和技术支持。
4.1 核心工作流程
具体流程就像刚刚 GLM-4.7 指点豆包一样:
1. Claude Code (本地AI) 遇到问题
↓
2. 通过上级顾问MCP 请求 上级顾问AI (远程高级AI) 指导
↓
3. 【多轮交互对齐】
- 如果 Claude Code 第一次对话信息不足
- 上级顾问AI 会返回具体问题要求补充
- Claude Code 继续补充信息直到对齐
↓
4. 上级顾问AI 给出明确的解题思路和指导意见
↓
5. Claude Code 按照指导完成具体编码工作
4.2 技术特点
- 多轮交互对齐机制
- 首次咨询信息不足时,上级AI会返回具体问题要求补充
- 逐步达成理解,避免模糊假设导致的错误指导
- 问题解决后会自动清理对话历史,保持会话清爽
- 灵活的API配置
- 支持 OpenAI 格式 API
- 兼容多个 AI 提供商:智谱AI、OpenAI、Claude、Gemini、自定义中转站
- 用户可自由配置上级模型,按需选择合适的"顾问"
- 完整的上下文管理
- 自动管理对话历史,复杂问题保持连贯性
- 支持进度报告,形成"咨询→指导→执行→反馈"的完整闭环
- 对话文件自动保存到用户目录
- 友好的配置工具
我特别编写了 GUI 配置工具,放在项目的 /tools 目录下,让配置过程变得简单直观。

4.3 配置说明
配置界面包含以下关键参数:
-
API 密钥:必填项,从各平台获取
-
AI 提供商:支持 zhipu/openai/anthropic/gemini/custom
-
API 地址:官方API可留空,第三方中转站需填写完整地址
-
模型名称:可从列表选择或手动输入,支持一键获取最新模型列表
-
最大迭代次数:控制上下级AI交流的最大次数,避免无限循环
-
温度参数 & 最大Tokens数:调整上级AI的输出风格和长度
自动管理配置以下项由系统自动管理,无需手动设置:
- 对话历史持久化(自动启用)
- 历史文件路径(自动保存到用户目录)
- 日志级别(默认 INFO)
五、使用场景
上级顾问MCP 特别适合以下场景:
- 复杂Bug诊断:当本地AI陷入"修不好但知道哪里错"的困境时
- 架构设计评审:需要从更高维度评估技术方案时
- 性能优化咨询:寻求专家级的优化建议和思路
- 技术选型决策:需要评估多种技术方案的优劣时
- 成本敏感开发:希望用最小的Token消耗获得最佳代码质量时
下面是一个使用示例








六、总结与展望
开发这个项目的初衷,源于一次意外的发现——AI 之间的协作,比我们想象的更高效。
上级顾问MCP 的核心理念是:
- 让合适的AI做合适的事
- 通过层级协作发挥各自优势
- 在成本和质量之间找到最佳平衡点
对于独立开发者和小团队来说,这种工作流既能保证代码质量,又能控制开发成本,是一种非常实用的开发模式。
项目已经在 GitHub 开源,欢迎大家试用和反馈!
更多推荐

所有评论(0)