📚 2026 AI-Native 软件工程实战圣经

作者:黑夜路人

时间:2026 年 2 月

📖 前言:程序员的“毁灭”与重生

在 2026 年的今天,软件开发的范式已经发生了彻底的断裂。我们不再是代码的编写者(Coder),而是逻辑的编排者(Orchestrator)和 Agent 指挥者(Commander)。

本文的核心思想是:“一行代码不用写”。这不是口号,而是通过 AI Agent(智能体)工具链实现的工程现实。从环境搭建、代码分析、架构设计到功能开发、自动化测试,AI 已经能够接管 90% 的执行层工作。

本次分享涵盖从大模型基础到实战项目开发的完整知识体系。

预期效果:

通过正确使用 AI 工具,开发效率可提升 2-5 倍。

  • 原本 2 个月的项目 → 2 周内完成
  • 原本 1 周的功能 → 1 天内实现

如果你依然坚持手动配置 Golang、Python、PHP 环境、手动编写 CRUD SQL、手动画流程图,那么你已经是“上个时代的遗民”。本手册将手把手教你如何利用全球最顶尖的 AI 武器库,实现效率的“降维打击”。

本文核心内容整理:

Image

🔍 第一章:大模型的解构与认知

要驾驭 AI,首先必须理解其本质。切忌将模型神话化,也不可将其工具化视之过低。

1.1 物理本质:模型即文件

大模型(LLM - Large Language Model)并非虚无缥缈的云雾,它有物理实体。

  • 文件形态:大模型本质上是经过海量数据训练后得到的权重文件(Weights),通常以 .safetensors 或 .bin .gguf、格式存在。
  • 组成结构:一个完整的模型通常包含:
    • 配置文件 (Config):定义模型架构参数(层数、隐藏层大小等)。
    • 分词器 (Tokenizer):将人类自然语言文本转换为模型可理解的数字序列。
    • 张量权重 (Tensors):存储模型的“知识”与逻辑,是文件体积最大的部分。
  • 开源圣地:Hugging Face (huggingface.co) 是全球 AI 模型的“GitHub”。你可以在上面找到几乎所有开源模型的源文件,并支持直接下载到本地运行。

1.2 常规的大模型 Chat 的运行过程:提示词到输出的完整链路

客户端-服务端架构 (C/S Architecture):

graph TD    User[用户输入提示词] --> Client[客户端 (豆包App/ChatGPT网页/Claude.ai)]    Client -->|封装HTTP请求 + Prompt| Server[服务端 (云端模型文件)]    Server -->|矩阵运算 + 概率预测| Server    Server -->|返回结果| Client    Client -->|展示| User[用户看到回复]

工作原理详解:

  1. 1.提示词 (Prompt):你输入的文字,类似于搜索引擎的关键词,但更加灵活,包含指令、上下文和约束。
  2. 2.Token化 (Tokenization):模型将你的文字切分成 Token(可以理解为词或字的片段)。
  3. 3.概率预测 (Probabilistic Prediction):模型不是在数据库中“查找”答案,而是根据上文计算“下一个字出现的概率分布”。
  4. 4.逐字生成 (Autoregressive Generation):模型基于概率采样一个字一个字地预测并输出,直到生成完整答案或遇到停止符。

与传统数据库的对比:

  • 数据库查询:SELECT * WHERE ID=1 → 确定性结果(永远返回相同数据)。
  • 大模型查询:你是什么模型? → 概率性结果(每次表述可能略有不同,甚至产生幻觉)。

关键概念 - Token:

  • 1 个 Token ≈ 0.75 个英文单词
  • 1 个 Token ≈ 0.5-1 个中文字
  • Token 是计费单位,也是衡量上下文长度的标准单位。

1.3 参数量与模型能力

参数量 (Parameters):

  • 衡量模型“智力”和体量的单位。
  • 通常使用 B (Billion,十亿) 作为单位。
  • 基本规律:参数量越大,模型推理能力越强,泛化性越好,但运行成本(显存、计算量)也呈指数级上升。

命名规范解析:

  • 以 Qwen 3 Code 30B 为例:
    • Qwen:模型名称(通义千问,阿里云出品)。
    • 3:第三代版本。
    • Code:专门为编程任务微调优化的变体。
    • 30B:300亿参数(30 × 10亿)。
  • 以 Qwen 3 VL 2B 为例:
    • VL:Visual Language(视觉-语言多模态模型),支持图像识别。
    • 2B:20亿参数,轻量级。

1.4 算力经济学:显存决定一切

在本地部署模型时,显存(VRAM)是核心瓶颈。而在云端使用时,它决定了你的 API 成本。

换算公式

FP16精度:1B 参数 ≈ 2GB 显存需求

FP8/INT8精度:1B 参数 ≈ 1GB 显存需求

INT4 量化精度:1B 参数 ≈ 0.5~0.7GB 显存需求

实际硬件需求对照表:(我们以为主流 DeepSeek 和 Qwen 的主流进度 FP8 来计算)

2026 大模型 FP8 部署规格多维对照表

模型名称 模型版本 / 参数量 最小显存需求 (FP8) 推荐显存需求 (FP8) 硬件配置(参考)
Qwen 3 0.6B (Dense) 1.0 GB 2.0 GB 树莓派 5 / 入门级显卡
Qwen 3 1.7B (Dense) 2.5 GB 4.0 GB RTX 4050 (6G) / 移动端设备
Qwen 3 4B (Dense) 5.0 GB 8.0 GB RTX 4060 (8G)
Qwen 3 8B (Dense) 9.0 GB 14.0 GB RTX 4060 Ti (16G)
Qwen 3 14B (Dense) 16.0 GB 24.0 GB RTX 4090 (24G)
Qwen 3 32B (Dense) 35.0 GB 48.0 GB 2x RTX 4090 / RTX 5090 (32G+)
Qwen 3 30B-A3B (MoE) 34.0 GB 45.0 GB 2x RTX 4090 / Mac Studio (64G)
Qwen 3 235B-A22B (MoE) 250.0 GB 320.0 GB 4x H100 (80G) / 8x A100
Qwen 3 Max-Thinking (1T MoE) 1.1 TB 1.3 TB+ 8x B200 (192G) 节点集群
DeepSeek 3.2 OCR-2 (3B) 4.0 GB 6.0 GB RTX 4060 Ti (16G)
DeepSeek 3.2 VL2-Tiny (3B) 4.0 GB 6.0 GB 消费级显卡均可
DeepSeek 3.2 VL2-Small (16B) 18.0 GB 28.0 GB RTX 4090 (24G) / RTX 5080
DeepSeek 3.2 VL2-Full (27B) 30.0 GB 42.0 GB 2x RTX 4090 / RTX 5090 (32G+)
DeepSeek 3.2 V3.2 / R1 (685B MoE) 750.0 GB 850.0 GB+ 8x H200 (141G) / 8x B200
GLM 4.7 Flash (30B MoE) 32.0 GB 42.0 GB 2x RTX 4090 / RTX 5090 (32G+)
GLM 4.7 Standard (355B MoE) 380.0 GB 480.0 GB 6x H100 (80G) / 4x H200
Minimax M2.1 Flagship (230B MoE) 245.0 GB 300.0 GB 4x H100 (80G) / 2x H200
Kimi 2.5 K2.5-Standard (1T MoE) 1.1 TB 1.3 TB+ 8x B200 (192G) NVLink 节点

结论:

  • 个人电脑只能运行“蒸馏”后的小模型(0.5B-70B),适合简单任务或隐私数据处理。
  • 顶级智力(70B+)必须依赖云端 API。
  • 企业级私有化部署超大模型需要昂贵的专业算力集群。

1.5 上下文窗口:模型的"记忆力"

什么是上下文 (Context Window):

模型能够“记住”并处理的对话历史长度(包括输入的 Prompt 和生成的 Output)。

  • 单位:K(千)或 M(兆)Token。
  • 200K = 20万 Token ≈ 15万中文字。
  • 1M = 100万 Token ≈ 75万中文字。

为什么上下文在编程中至关重要:

  1. 1.代码连续性:模型需要记住前面文件的代码结构、变量定义和函数签名。
  2. 2.避免遗忘:上下文短会导致模型“断片”,忘记之前的设计决策,导致前后代码不一致。
  3. 3.复杂项目支持:大项目往往涉及几十个文件,需要同时加载才能理解全貌。

对比示例:

  • Claude Sonnet 4.5 (1M 上下文):
    • 可以一次性加载整个项目的代码库(几十个文件)。
    • 可以加载完整的技术文档和 API 手册。
    • 可以保留几小时甚至几天的深度对话历史。
  • GPT-5.2 (400K 上下文):
    • 只能加载核心代码片段。
    • 随着对话进行,容易“爆掉”,需要频繁手动清理历史。

实战意义:

上下文长的模型不容易“改错”代码,可以维护更复杂的业务逻辑,是处理大型遗留系统(Legacy System)的唯一解。

🌍 第二章:全球模型军备图谱 (2026 最新版)

选择模型如同赛车手选车,不同赛道需匹配不同引擎。本章基于实际使用经验和 OpenRouter 真实排名数据整理。

2.1 国际第一梯队 (S-Tier)

1.Claude 系列 (Anthropic) —— 编程之王 ⭐⭐⭐⭐⭐
  • 核心型号:
    • Claude 4.5 Sonnet(编程首选,性价比与能力平衡最好)。
    • Claude 4.5 Opus(最顶级,逻辑最强但昂贵)。
    • Claude 4.5 Haiku(轻量快速版,适合简单任务)。
  • 上下文窗口对比:
模型 上下文 最大输出 适用场景
Sonnet 4.5 1M 64K 编程开发(首选)
Opus 4.5 200K 16K 顶级复杂逻辑任务(昂贵)
Haiku 4.5 400K 8K 快速响应、简单问答
  • 特点:
    • 逻辑严密:在代码生成、架构设计、复杂逻辑推理方面全球无出其右。
    • 超长上下文:Sonnet 4.5 支持 1M Token,是竞品的 2.5 倍以上。
    • 代码质量高:生成的代码风格统一,错误率低,极少出现幻觉。
    • Artifacts 功能:强大的代码预览和交互能力(在官方界面中)。
  • 适用场景:复杂系统开发、Bug 调试与修复、架构设计与重构、技术文档生成。
  • 价格参考 (OpenRouter):
    • Sonnet 4.5:输入 $5/M Token,输出 $25/M Token。
    • Opus 4.5:价格更贵,通常仅在 Sonnet 搞不定时使用。
  • 重要提示:Claude 的创始人曾在百度硅谷实验室工作,因个人原因,Claude 官方不对中国大陆提供服务。必须通过 OpenRouter 等代理访问,且 IP 必须选择美国或新加坡。
2.Gemini 系列 (Google) —— 多模态与前端专家 ⭐⭐⭐⭐⭐
  • 核心型号:
    • Gemini 3 Pro(专业版,能力最强)。
    • Gemini 3 Flash(快速版,免费额度大)。
  • 上下文窗口:两个版本均支持 1M Token。
  • 特点:
    • 示例:给它一张 UI 设计图,直接生成 HTML/CSS 代码。
    • 多模态理解 (Multimodal):可以“看懂”图片、截图、设计稿、PDF、PPT 等文档。
    • 前端开发神器:擅长生成美观的网页界面,支持 SVG、Canvas 等复杂图形。可以生成赛博朋克、未来主义等风格的页面。
    • 生活百科能力:在医疗健康咨询(如术后康复指导)、生活问题解答方面表现卓越。
    • 生态整合:与 Google Workspace、Android Studio (IDX) 深度绑定,可以直接搜索最新网络信息。
  • AI Studio (https://aistudio.google.com):Google 提供的网页工具,可以在线生成网页原型,支持实时预览和下载。
    • 实战案例:输入“请检索关于黑夜路人谢华亮的资料,生成一个关于他个人的深度介绍网页。必须酷炫、赛博朋克风格、有科技感、详细、不要捏造信息。”
    • 执行结果:Gemini 自动搜索 -> 提取资料 -> 设计结构 -> 编写 HTML/CSS/JS -> 实时预览 -> 提供下载。
  • 适用场景:前端 UI/UX 开发、网页原型快速生成、图片识别与分析、生活与健康咨询、文档 OCR 与解析。
3.GPT 系列 (OpenAI) —— 基准标杆 ⭐⭐⭐⭐
  • 核心型号:GPT-5.2(最新版本)、GPT-5.2 Codex(编程专用版)。
  • 上下文窗口:均为 400K Token。
  • 特点:综合能力均衡,知名度最高,用户基数大。但在 2026 年的编程垂直领域,尤其是上下文长度和逻辑严密性上,略逊于 Claude 4.5。
  • 适用场景:通用对话、文案创作、简单数据分析。
4.Grok (xAI - 马斯克) —— 新兴力量 ⭐⭐⭐⭐
  • 背景:伊隆·马斯克创立的 xAI 公司,2023 年成立,发展迅速。
  • 核心模型:Grok Code、Grok-3。
  • 特点:OpenRouter 排名第三,综合能力强劲,特别擅长实时信息获取(接入 X 平台数据)。

2.2 国内第一梯队 (A-Tier)

国内模型进步神速,且具有网络访问优势和价格优势。

1.豆包 (Doubao - 字节跳动) ⭐⭐⭐⭐⭐
  • 定位:日常使用首选,完全免费。
  • 特点:
    • 文生图:输入描述生成图片。
    • 视频生成:可以将图片转换为短视频。
    • 语音识别与合成:语音交互体验极佳。
    • 免费且强大:无需付费即可使用,功能丰富。
    • 多模态能力:
    • 网络搜索:可以搜索最新信息,适合信息检索。
  • 实战案例:
    • 提示:"帮我画一个叫做黑夜路人的男子,他徒手打死一只老虎" → 生成图片。
    • 提示:"请把黑夜路人打老虎这个变成一个视频" → 生成动态视频(消耗积分)。
  • 适用场景:日常问答、快速检索、图片/视频生成、学习辅助。
2.千问 (Qwen - 阿里云) ⭐⭐⭐⭐⭐
  • 特点:
    • Qwen Code:专门的编程模型。
    • Qwen VL:多模态视觉模型。
    • Qwen Math:数学专用模型。
    • 开源生态最完善:所有模型版本都开源,可以在 Hugging Face 下载,支持本地部署。
    • 专业版本丰富:
    • 版本迭代快:Qwen 3 持续更新,参数规模从 0.5B 到 235B 全覆盖。
  • 适用场景:本地部署需求、隐私数据处理、编程开发、成本敏感场景。
3.DeepSeek (深度求索) ⭐⭐⭐⭐
  • 特点:
    • 开源且性价比极高。
    • 全尺寸版本:DeepSeek V3(671B 参数)。
    • 编程能力:虽然不如 Claude,但在国内模型中表现优秀。
  • 注意事项:编程能力相对较弱,不推荐作为主力编程工具,更适合通用对话和逻辑推理。
4.GLM (智谱清言 - 清华系) ⭐⭐⭐⭐
  • 特点:学术底蕴深厚,长文本处理能力强,开源版本可用。
5.MiniMax
  • 特点:语音和文本模型都不错
6.Kimi
  • 特点:长文本、Agent 调度、tool call 等能力

2.3 模型能力排行榜 (OpenRouter 实时数据)

查看方式:访问 openrouter.ai -> 点击 Ranking。

Top 10 排名 (截至分享时):

  1. 1.Claude Sonnet 4.5 ⭐ (霸榜)
  2. 2.Gemini 3 Flash Preview
  3. 3.DeepSeek V3.2
  4. 4.Kimi K2.5
  5. 5.Gemini 2.5 Flash
  6. 6.Grok Code Fast 1
  7. 7.Claude Opus 4.5
  8. 8.Grok 4.1 Fast
  9. 9.Gemini 2.5 Flash Lite
  10. 10.gpt-oss-120b
  11. 11.MiniMax M2.1
  12. 12.GLM 4.7
  13. 13.Gemini 2.0 Flash
  14. 14.Gemini 3 Pro Preview
  15. 15.Grok 4 Fast
  16. 16.GPT-5.2
  17. 17.GPT-4o-mini
  18. 18.GPT-5 Nano
  19. 19.Claude Haiku 4.5

2.4 模型选择决策树 & 价格对比

编程开发?

  • Claude Sonnet 4.5 (首选,平衡性价比,质量高,上下文 1M)
  • Claude Opus 4.5(最顶级编程模型,非常牛,上下文稍小,代码质量非常高)
  • OpenAI GPT 5.2 或 GPT 5.2 Codex (找 bug,深度解决问题非常强,可以作为 Claude 备选)

预算特别紧张:

  • 那就考虑 Kimi 2.5、Grok Code fast、GLM-4.7、Qwen 3、MiniMax m2.1 等等

日常使用:

  • 免费:豆包、千问、元宝 (日常简单常规用用)
  • 综合能力最强:Gemini (强烈推荐)

🛠️ 第三章:工具搭建和本机运行大模型

工欲善其事,必先利其器。如果你还在用裸机写代码,请立即停止。

3.1 硬件环境:Mac 是唯一正解

  • 为什么必须用 Mac:
    • AI 工具链深度依赖 Unix 环境:Claude Code、Cursor、Codex、各类 CLI Agent 都是基于 Unix 开发,在 Mac 上运行最顺畅。
    • 命令行兼容性:Bash/Zsh 脚本原生支持,无缝衔接服务器环境。
    • Windows 的劣势:PowerShell 兼容性差,Docker 调度复杂,环境变量配置繁琐,WSL2 仍有坑点。
  • 配置建议:
    • 推荐:MacBook Pro M3/M4,24G~32GB 内存。
    • 最低:MacBook Pro M1,16GB 内存。
    • 团队统一:所有开发人员必须统一配备 Mac,避免环境差异导致的协作问题。

3.2 包管理器:Homebrew

  • 定义:macOS 的包管理器,类似于 Linux 的 apt 或 yum。
  • 安装:
/bin/bash -c "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/HEAD/install.sh)"
  • 常用命令:
    • brew search/install/upgrade/uninstall 软件名
    • 实战:brew install ollama (安装模型运行环境), brew install node, brew install python@3.11.

3.3 本地模型运行时:Ollama

Ollama 是什么:

AI 时代的 Docker。它标准化了模型的下载、运行和接口暴露,让本地运行大模型像运行容器一样简单。

核心概念对比:

  • 镜像 (Image) → 模型 (Model)
  • 容器 (Container) → 运行实例
  • docker pull → ollama pull
  • docker run → ollama run

基本使用流程:

  1. 1.启动服务:ollama serve
  2. 2.拉取模型:
    • ollama pull qwen3:0.6b (0.6B,最小,适合测试)
    • ollama pull qwen3:7b (7B,主流)
    • ollama pull deepseek-coder:6.7b
  3. 3.运行模型:
    • ollama run qwen3:0.6b
    • 进入交互式对话:>>> 用 Golang 写一个红黑树

Ollama 的优势与局限:

  • 优势:完全离线(断网可用)、数据隐私(不上传云端)、免费。
  • 局限:智力有限(本地小模型无法与云端 70B+ 模型相比),速度受硬件限制。

3.4 网络与代理:通向世界的钥匙

IP 选择策略:

地区 兼容性 速度 推荐度
新加坡 ⭐⭐⭐⭐⭐ ⭐⭐⭐⭐⭐ 首选 ⭐
美国 ⭐⭐⭐⭐ ⭐⭐⭐⭐ 备选
日本 ⭐⭐⭐ ⭐⭐⭐ 可用
香港 ⭐⭐⭐⭐⭐ 不可用 (被封禁)

关键配置:TUN 模式:

  • 定义:系统级全局魔法,所有应用流量(包括终端命令行)都走魔法。
  • 必须开启:否则命令行工具(如 ollama, pip, git)无法连接外部服务器。
  • 验证:curl https://api.openai.com 或 curl https://ipinfo.io。

3.5 API 聚合平台:模型超市

OpenRouter (全球最大) ⭐⭐⭐⭐⭐

  • 网址:https://openrouter.ai
  • 特点:支持几乎所有主流模型,价格透明,API 接口标准化。
  • 控制台:Usage (消费记录), Keys (密钥管理), Models (模型列表)。
  • 团队管理:可为成员分配独立 Key,设置消费上限。

备选平台:

  • Requesty:支持 cc 协议等,可以作为 OpenRouter 备选。
  • OneAPI (自建):开源项目,适合有技术能力的团队深度定制。

3.6 飞书:知识管理中枢

飞书妙记 (重点):

  • 功能:会议录音录屏、自动转文字、智能摘要、会后提问(如“会议提到了哪些工具?”)。
  • 使用:会议中开启录制 -> 会后自动生成记录 -> 导出知识点。

飞书截图 (Mac 神器):

  • 快捷键:Cmd + Shift + A。
  • 核心功能:滚动截图。可以截取长代码、长网页、长文档,直接喂给 AI 分析。

💻 第四章:AI-Native IDE(集成开发环境)介绍

IDE 已经从单纯的代码编辑器进化为“AI 结对编程工作台”。

4.1 工具演进关系

Cursor (2023) → Windsurf (Codeium) → Kilocode (国内优化版) → Augment → Claude Code / Codex

4.2 Augment —— 比较强 (Tier 0) ⭐⭐⭐⭐⭐

定位:深度集成的 AI 编程助手,具备极强的上下文感知能力。

核心功能详解:

  1. 1.会话类型 (Critical):
    • Chat 模式:纯问答,不修改代码。适合询问技术问题、学习概念。
    • Agent 模式:具备文件读写权限、终端执行权限。适合功能开发、Bug 修复、环境配置。
    • 创建方法:点击 + 号 -> 选择 New Agent Thread。
  2. 2.工作模式:
    • Architect (架构师):生成技术方案,不写代码。
    • Code (编程):直接修改文件。
    • Ask (问答):只回答问题。
    • Debug (调试):分析报错,定位 Bug。
    • Auto-arrange (自动编排):自动规划任务并执行。
  3. 3.Auto 模式:
    • 开启:全自动执行,无需人工确认,一路狂奔。适合简单任务。
    • 关闭:每步停下等待确认。适合复杂任务。
  4. 4.Task 管理 (重要):
    • AI 会自动将大任务分解为可视化 Task 列表(如:检查环境 -> 安装 PHP -> 安装 MySQL)。
    • 状态:⚪待执行,🟢执行中,✅已完成,❌失败。
    • 支持手动添加、删除、调整 Task 顺序。
  5. 5.Checkpoint (检查点):
    • 类似游戏存档。AI 改乱代码时,可以一键 Restore to this point 回滚。
    • 最佳实践:配合 Git 使用,每完成一个功能点就 commit。
  6. 6.模型选择:
    • 默认/日常:Claude 4.5 Sonnet。
    • 复杂/关键:Claude 4.5 Opus。
    • 快速/简单:Claude 4.5 Haiku。

4.3 Cursor —— 主流之选 (Tier 1) ⭐⭐⭐⭐

定位:VS Code 的 AI 魔改版。

核心特性:

  1. 1..cursorrules 文件 (重点):
    • 项目级的系统提示词,每次对话自动加载。
    • 用于固化开发规范(如:“使用 PHP 7.4”,“遵循 PSR-12”)。
  2. 2.Composer (多文件编辑):
    • Cmd + I 唤起,支持同时修改多个文件,保持上下文连贯。
  3. 3.Tab 补全:极其智能的代码预测,支持多行补全。

4.4 终端 Agent:Claude Code  / Codex(革命性) ⭐⭐⭐⭐⭐

定位:未来的 AI 开发形态,纯命令行界面,权限极高。

网址:https://code.claude.ai

配置:需要 Anthropic 官方 Key 或 OpenRouter 配置。

强大能力:

  1. 1.自动环境搭建:
    • 指令:"请检查当前机器环境...帮我安装 PHP 7.4..."
    • 执行:自动检查 -> 安装 Homebrew -> 安装依赖 -> 配置服务 -> 验证。
  2. 2.自动代码提交:
    • 指令:"请把当前项目提交到 Git,信息为:完成用户登录"
    • 执行:git add . -> git commit -> git push。
  3. 3.浏览器自动化:
    • 指令:"请使用 Playwright 打开百度搜索..."
    • 执行:自动安装 Playwright -> 启动浏览器 -> 操作页面 -> 提取结果。

4.5 其他工具

  • Google Antigravity:有 Gemini 账号可以免费用,免费集成 Gemini 3、Claude、Gpt 等模型,适合 Android/Flutter 开发。
  • Windsurf/Kiro/Trae:Cursor 竞品,需付费,各有优势
  • 终端开发工具可选:OpenCode、Codex、Claude Code
  • 国产工具:Qode、CodeBuddy、Baidu Comate、CodeGeeX

工具选择决策树:

  • 有预算/公司报销? → Augment (首选) / Cursor/ Kilocode(OpenRouter)+ Claude Code / Codex(辅助)。
  • 预算有限? → Trae / Codebuddy / KiloCode / Qoder (配置便宜模型或国产模型:Claude Haiku 4.5/ Gemini 3 Flash / Grok Code Fast 1,或 DeepSeek 3.2 / Kimi 2.5 / GLM 4.7 / Minimax M2.1 / Qwen 3 Max) + OpenCode。
  • 体验 Google 生态? → Antigrivaty (有 Pro 可以免费使用 Claude / Geminie / GPT 120B 等模型)。

⚔️ 第五章:实战AI-Native 开发过程

本章演示如何利用 AI 完成一个项目的全生命周期开发。严禁上来就写代码!

正确流程:Plan(规划)→ Act(执行)→ Verify(验证)→ Iterate(迭代)。

5.1 场景一:环境自动化构建 (Infrastructure as Code)

痛点:手动配置环境耗时且易报错。

AI 模式 (Augment/Claude Code):

  1. 1.输入指令:
  1. 2.“请检查当前机器环境。我需要运行一个老旧的 PHP 项目。请帮我安装:PHP 7.4、Apache、MySQL 8.0、Memcached 及所有常用扩展(Redis, GD, PDO等)。
  2. 3.要求:1. 自动解决版本冲突;2. 自动安装缺失工具(如 Brew);3. 配置服务自启动;4. 编写测试脚本验证环境。”
  1. 4.AI 执行:
    • Task 1: 检查 Homebrew(无则安装)。
    • Task 2: brew install php@7.4。
    • Task 3: brew install mysql@8.0(自动设置密码)。
    • Task 4: pecl install redis。
    • Task 5: 生成 test.php 并运行验证。
  2. 5.结果:10-15 分钟内,环境全自动就绪。

5.2 场景二:遗留项目逆向分析 (Legacy Code Analysis)

痛点:接手无文档的“屎山”代码。

AI 模式:

  1. 1.全量扫描:
    • 提示词:“请扫描当前项目(路径:...)。分析技术栈(确认是 PHP 7.x 还是 5.x)、目录结构、核心业务逻辑、数据库表结构。生成详细的Markdown报告(包含目录树、文件说明、技术栈),保存在 /docs/analysis/ 目录下。”
  2. 2.数据库还原:
    • 提示词:“根据代码中的 Model 和 SQL 逻辑,逆向生成完整的 init_db.sql 建表语句。要求 MySQL 8.0 格式,包含索引、外键和详细注释。”
    • 验证:使用 GPT-5 和 Claude 交叉验证 SQL 的正确性。
  3. 3.流程可视化:
    • 提示词:“请梳理‘用户登录’和‘订单支付’的完整业务链路,生成 SVG 格式 的流程图,保存在 /docs/flowcharts/。”
    • 查看:直接在浏览器打开 SVG 文件预览。

5.3 场景三:功能开发 (The Plan-Execute Cycle)

案例:新增“多语言发布”功能。

Step 1: 需求对齐与规划 (Plan)

  • 提示词:“目标:新增多语言发布和评论功能。要求:1. 先学习现有代码;2. 给出详细执行计划(数据库、API、前端);3. 不要修改代码,只生成设计文档保存在 /docs/plan/。”
  • 产出:执行计划.md, 数据库设计.md, API设计.md。

Step 2: 方案评审 (Review)

  • 人工检查 AI 生成的计划,确认无误后回复:“批准执行”。

Step 3: 分步执行 (Execute)

  • 阶段 1 - 数据库:“执行数据库设计阶段。创建 Migration,编写 SQL,生成 Seeder,执行迁移并验证。” -> 完成后 Git Commit。
  • 阶段 2 - 后端 API:“执行后端开发。创建 Model,编写 Controller 和 API 路由,实现 CRUD,必须编写单元测试。” -> 完成后 Git Commit。
  • 阶段 3 - 前端页面:“执行前端开发。改造发布页面支持多语言切换,保持现有样式风格。” -> 完成后 Git Commit。

Step 4: 集成测试 (Verify)

  • 提示词:“编写集成测试用例,测试完整业务流程(创建文章 -> 添加翻译 -> 评论)。生成测试报告。”

📜 第六章:AI 编程“八荣八耻” (Rules of AI IDE)

为了防止 AI “幻觉”导致的代码灾难,必须将以下规则写入项目的 .cursorrules 或 Augment 的 Rules 中。这是团队开发的底线。

配置文件模板 (.cursorrules /   .IDE-NAME/rules/coding-rules.md)

---name: ai-ide-8-rulesdescription: AI IDE 助手配置规则,定义输出格式、代码规范和交互约束,帮助开发者更高效地开发代码---### AI IDE 遵守的八荣八耻- 以瞎猜接口为耻,以认真查询为荣。- 以模糊执行为耻,以寻求确认为荣。- 以臆想业务为耻,以人类确认为荣。- 以创造接口为耻,以复用现有为荣。- 以跳过验证为耻,以主动测试为荣。- 以破坏架构为耻,以遵循规范为荣。- 以假装理解为耻,以诚实无知为荣。- 以盲目修改为耻,以谨慎重构为荣。### AI IDE 遵守的八条军规1. 不猜接口,先查文档。2. 不糊里糊涂干活,先把边界问清。3. 不臆想业务,先跟人类对齐需求并留痕。4. 不造新接口,先复用已有。5. 不跳过验证,先写用例再跑。6. 不动架构红线,先守规范。7. 不装懂,坦白不会。8. 不盲改,谨慎重构。

如何固化

  • Cursor:在根目录创建 .cursorrules 文件,或者在 .cursor/rules 里粘贴上述内容。
  • Augment:在设置或根目录创建 .augment/rules/coding-rules.md。
  • 效果:AI 每次回答前都会自动加载并遵守这些规则,极大降低“写飞”的概率。
  • 也可以统一放在 .XXX(AI IDE)目录下面的  rules 目录下,可以自动加载
    ├── .augment           # Augment Code 配置入口├── .claude            # Anthropic Claude Code 配置入口├── .codebuddy         # 腾讯 Codebuddy Code 配置入口├── .cursor            # Cursor IDE 配置入口├── .codex             # Codex IDE 配置入口├── .kilocode          # Kilocode IDE 配置入口├── .opencode          # Opencode IDE 配置入口├── .agent/            # Antigrvatiy 配置入口
    ~/.XXX/├── AGENTS.md               # AI IDE 全局配置指令(AI 行为规范、技术栈信息)├── mcp.json                # MCP (Model Context Protocol) 配置├── agents/                 # Sub Agents 和 AI Agents 的存放目录├── commands/               # Slash Command 斜杆命令存放目录├── docs/                   # 各种需要存储的文档、标准、工作流描述等存放目录├── hooks/                  # Claude Code、Codebuddy Code 的钩子配置目录├── prompts/                # 提示词模板和 AI 通用规则├── rules/                  # AI 遵循规则存储目录(claudecode/codex 等会自动加载,请勿过多放置避免上下文溢出)├── scripts/                # 通用运行脚本与工具├── sessions/               # 运行会话历史保存目录├── skills/                 # AI 技能配置└── workflows/              # 通用工作流,Antigrvity 下的类 Slash Command
    • 这些上面一级目录,下面参考的二级目录(就是在入口 IDE 配置路径下一级目录列表)
    • 参考配置文件路径:可以配置在 ~/.IDE-NAME 或者是  项目目录/.IDE-NAME 目录下,都可以加载(下面就是 IDE 可能的配置目录入口名称)

🏁 结语:新时代的生存法则

在这场 AI 革命中,未来只有两类程序员:

  1. 1.超级个体:熟练掌握 Prompt Engineering,利用 AI 能够一人抵十人,专注于架构、业务价值和创新。
  2. 2.被淘汰者:坚持手写每一行代码,拒绝接触新工具,最终被效率的洪流淹没。

行动清单 (Action Items):

  1. 1.[ ] 硬件:配置好 Mac 电脑。(推荐 MacBook Pro M3+、Mac Mini M3+ 等机器设备)
  2. 2.[ ] 账号:注册 OpenRouter,获取 Claude 4.5 Sonnet 权限。
  3. 3.[ ] 工具:安装 Augment 和 Claude Code,配置好代理。
  4. 4.[ ] 规范:在项目中部署 .cursorrules 或者 .AI-IDE-NAME/rules/ “八荣八耻”。
  5. 5.[ ] 实战:下周尝试用“Plan-Execute”流完整重构一个旧模块。

下一步: 

- 立即开始行动 

- 完成第一个实战项目 

- 体验效率提升 

- 成为 AI-Native 开发者  

记住: 

> 工具没有感情,效率不讲情面,你不跟进别人会跟进。   

> 拥抱变化,或者被变化吞噬。   

> The future is now. 未来已来。

祝你在 AI 时代大放异彩! 🚀


【想要讨论AI编程和AI技术加群,搜索同名 WX 公众号 】

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐