本文源自 GLM Coding 日常投稿获奖作品,原文作者为 black999cat

数万开发者严选的编码搭子 GLM Coding Plan

推荐语:

这是一个源于真实开发卡点的 MCP 实践项目,聚焦在复杂问题中部分模型“知道有错却修不好”的典型场景,并给出了一套 “AI 指导 AI” 的分层协作工作流。项目完整跑通了从模型受阻、GLM-4.7 介入、多轮对齐澄清,到指导回传并完成编码的工程闭环。

在实现上,上级顾问 MCP 明确区分了不同模型的职责边界:GLM-4.7 仅负责问题拆解与解题思路,低成本模型负责具体编码执行,并通过多轮交互对齐与上下文管理机制,兼顾了解题质量与成本控制。

大家好,我是 black999cat。作为一个独立开发者,最近我正在折腾一个本地化的 MCP 项目 —— 上级顾问MCP

项目地址: https://github.com/LZMW/mcp-aurai-server

在这个开发过程中,我遇到了一件非常有趣的事情:我发现让一个 AI 去指导另一个 AI 写代码,竟然比自己亲自上手还要高效,而且特别省钱!

在这里插入图片描述

一、问题的发现

事情是这样的,当时我在扣子空间进行开发,主要使用自带的"豆包"模型来进行自然语言编程。平心而论,豆包是个不错的助手,但在关键时刻它真的有点"死脑筋"。

当时程序在关键功能上卡住了,明明代码逻辑有问题,豆包却陷入了一种"薛定谔的修 Bug"状态——它知道有错,也解释了为什么错,但给出来的修复方案永远跑不通。

这就好比你跟一个人说"门锁了",他一直在努力"推门",却不知道要去找钥匙。

在豆包挣扎了无数次后,我决定用点"土办法"。我单开了一个窗口,使用了当时号称更高级的模型 —— GLM-4.7


二、意外的转机

我的思路很明确:既然豆包解释不清现状,我就把它的"遗言"发给 GLM-4.7,同时多问了一句至关重要的话:

“这是豆包给出的错误代码和它的分析,它说这里有问题但修不好。你能帮我看看,到底应该怎么指导它?”

结果让我大吃一惊!

在这里插入图片描述

GLM-4.7 不仅一眼看穿了问题本质,还给出了清晰的解题思路,并且明确指出:“你应该让豆包把注意力放在 X 方面,而不是一直在 Y 上死磕。”

在这里插入图片描述

我按照 GLM-4.7 的建议,把这段指导原封不动地转达给豆包。然后…奇迹发生了!

在这里插入图片描述

之前死活搞不定的豆包,居然立刻就写出了正确的代码!全程不到 5 分钟!

在这里插入图片描述


三、核心洞察

这次经历让我产生了两个重要洞察:

1. "AI 指导 AI"的意外效率

为什么 GLM-4.7 的几句话就能点醒豆包?

关键在于上下文的专业性:

  • GLM-4.7 没有陷入具体的代码细节,而是从更高维度分析问题本质
  • 它给出的解题思路关键提示正好补上了豆包的认知缺口
  • 豆包本身具备写代码能力,只是缺少正确的方向指引

这就像一个经验丰富的架构师指导初级工程师——有时一句点拨,胜过自己摸索半天。

2. 极具性价比的"套娃"工作流

更妙的是,这种模式不仅高效,还特别省钱:

传统模式:
高级 AI (高成本) → 完成所有工作 = Token 消耗巨大

套娃模式:
基础 AI (低成本) → 基础编码工作
         ↓ (遇到难点)
高级 AI (高成本) → 仅提供解题思路和关键指导
         ↓
基础 AI (低成本) → 继续完成具体编码 = Token 消耗最小化

我们完全可以用免费的或低成本的 AI 做基础的编码工作。一旦遇到搞不定的难点,就让它停下来,去请教更高级(但也更贵)的 AI。

高级 AI 只负责生成"解题思路"和"指令",基础 AI 负责具体的"搬砖写码"。

这样一来一回,既解决了难题,又避免了全程使用高级 AI 消耗的大量 Token 成本。对于我们这些独立开发者来说,这绝对是兼顾质量与钱包的最佳实践!


四、项目实现:上级顾问MCP

受到这次经历的启发,我着手开发了上级顾问MCP——一个多轮交互式 AI 顾问系统,为本地 AI 提供专家级指导和技术支持。

4.1 核心工作流程

具体流程就像刚刚 GLM-4.7 指点豆包一样:

1. Claude Code (本地AI) 遇到问题
   ↓
2. 通过上级顾问MCP 请求 上级顾问AI (远程高级AI) 指导
   ↓
3. 【多轮交互对齐】
   - 如果 Claude Code 第一次对话信息不足
   - 上级顾问AI 会返回具体问题要求补充
   - Claude Code 继续补充信息直到对齐
   ↓
4. 上级顾问AI 给出明确的解题思路和指导意见
   ↓
5. Claude Code 按照指导完成具体编码工作

4.2 技术特点

  1. 多轮交互对齐机制
  • 首次咨询信息不足时,上级AI会返回具体问题要求补充
  • 逐步达成理解,避免模糊假设导致的错误指导
  • 问题解决后会自动清理对话历史,保持会话清爽
  1. 灵活的API配置
  • 支持 OpenAI 格式 API
  • 兼容多个 AI 提供商:智谱AI、OpenAI、Claude、Gemini、自定义中转站
  • 用户可自由配置上级模型,按需选择合适的"顾问"
  1. 完整的上下文管理
  • 自动管理对话历史,复杂问题保持连贯性
  • 支持进度报告,形成"咨询→指导→执行→反馈"的完整闭环
  • 对话文件自动保存到用户目录
  1. 友好的配置工具

我特别编写了 GUI 配置工具,放在项目的 /tools 目录下,让配置过程变得简单直观。

在这里插入图片描述

4.3 配置说明

配置界面包含以下关键参数:

  • API 密钥:必填项,从各平台获取

  • AI 提供商:支持 zhipu/openai/anthropic/gemini/custom

  • API 地址:官方API可留空,第三方中转站需填写完整地址

  • 模型名称:可从列表选择或手动输入,支持一键获取最新模型列表

  • 最大迭代次数:控制上下级AI交流的最大次数,避免无限循环

  • 温度参数 & 最大Tokens数:调整上级AI的输出风格和长度

自动管理配置以下项由系统自动管理,无需手动设置:

  • 对话历史持久化(自动启用)
  • 历史文件路径(自动保存到用户目录)
  • 日志级别(默认 INFO)

五、使用场景

上级顾问MCP 特别适合以下场景:

  1. 复杂Bug诊断:当本地AI陷入"修不好但知道哪里错"的困境时
  2. 架构设计评审:需要从更高维度评估技术方案时
  3. 性能优化咨询:寻求专家级的优化建议和思路
  4. 技术选型决策:需要评估多种技术方案的优劣时
  5. 成本敏感开发:希望用最小的Token消耗获得最佳代码质量时

下面是一个使用示例

在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述
在这里插入图片描述


六、总结与展望

开发这个项目的初衷,源于一次意外的发现——AI 之间的协作,比我们想象的更高效

上级顾问MCP 的核心理念是:

  • 让合适的AI做合适的事
  • 通过层级协作发挥各自优势
  • 在成本和质量之间找到最佳平衡点

对于独立开发者和小团队来说,这种工作流既能保证代码质量,又能控制开发成本,是一种非常实用的开发模式。

项目已经在 GitHub 开源,欢迎大家试用和反馈!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐