前言

最近一直用 AI 在测试工作中,一段时间后发现:

AI 很强,但使用方式很碎片。

例如:

  • 每次都是临时开一个聊天窗口

  • 上下文经常丢失

  • 不同项目的讨论混在一起

  • 很多有价值的分析没有沉淀下来

所以意识到:

AI 真正的问题不是能力,而是工作流。

如果只是零散使用 AI,它很难真正提升测试能力。

所以后来尝试搭建了一套 AI测试工程师工作台,让 AI 成为日常工作的协作工具,而不是偶尔使用的聊天助手。

这篇文章主要分享这个思路。

一、为什么需要 AI 测试工作台

很多时候使用 AI 时是这样的:

想到问题 → 问 AI → 得到答案 → 结束

这种方式有两个问题:

1、AI 没有长期记忆

每个聊天窗口都是新的上下文。

2、项目经验无法沉淀

例如:

  • 需求分析

  • Bug原因

  • 测试策略

这些信息往往留在聊天记录里,很难复用。

结果就是:

AI 每次都在“重新开始”。

所以想让 AI 真正成为测试助手,就需要一个 稳定的工作结构

二、AI测试工程师工作台结构

我目前使用的结构。

在电脑上建立一个目录:

AI_QA_Workspace

里面分成几个模块:

AI_QA_Workspace

├─ 01_Projects
├─ 02_Risk_Model
├─ 03_Test_Method
├─ 04_AI_Prompt
└─ 05_Content

每个模块的作用不同。

  • Projects 管项目
  • Risk_Model 管风险
  • Test_Method 管方法
  • Prompt 提高效率
  • Content 做输出

三、Projects:项目工作区

Projects 主要用于存放 具体项目信息

例如:

01_Projects

└─ Project1_DakaAgent
├─ 00_context.md
├─ 01_requirements.md
├─ 02_bug_notes.md
└─ 03_test_strategy.md

这四个文件分别记录:

context

项目背景,例如:

  • 项目目标

  • 核心功能

  • 系统模块

requirements

需求记录。

bug_notes

Bug分析和记录。

test_strategy

测试策略和重点。

这些文件相当于 项目知识库

每次用 AI 分析问题时,可以把相关内容提供给 AI,让它理解项目上下文。

四、Risk Model:风险模型库

随着项目越来越多,会发现:

很多系统风险其实是 重复出现的

例如:

Agent 系统常见风险:

  • 工具调用失败

  • 上下文理解错误

  • 输出格式异常

RAG 系统常见风险:

  • 检索错误

  • chunk污染

  • hallucination

这些可以整理成:

02_Risk_Model

例如:

  • Agent系统风险.md
  • RAG系统风险.md
  • 电商系统风险.md

以后分析新系统时,可以直接让 AI 结合这些风险模型进行推理。

五、Test Method:测试方法库

这一部分主要沉淀 测试方法论

例如:

03_Test_Method

里面可以包括:

  • 系统理解方法

  • Bug反推系统方法

  • AI辅助测试流程

例如 Bug反推系统:

步骤:

  1. 收集历史Bug
  2. 提取业务流程
  3. 提取系统模块
  4. 总结风险点

这些方法在多个项目中都可以复用。

六、AI Prompt:提示词库

很多时候 AI 使用效率低,是因为每次都重新写提示词。

所以可以建立一个 Prompt 库,例如:

04_AI_Prompt

例如:

需求分析 prompt:

请基于以下需求输出:

  • 业务流程
  • 系统模块
  • 风险点
  • 建议测试场景

Bug分析 prompt:

请分析这个 Bug:

  • 涉及业务流程
  • 涉及系统模块
  • 可能根因
  • 需要补充的测试场景

这样每次使用 AI 都会更稳定。


七、Content:内容输出

最后一个模块是 内容输出

例如:

05_Content

可以用来整理:

  • CSDN文章

  • 技术笔记

很多测试经验可以从项目沉淀中提取出来,整理成文章。


八、AI测试工作流

有了这个工作台之后,AI 使用方式也会变得更清晰。

例如一个典型流程:

需求

AI需求理解

系统建模

风险分析

测试设计

Bug分析

经验沉淀

这样 AI 就不只是一个问答工具,而是:

测试思考的辅助工具。

九、文档维护规则

文件 更新频率
context.md 几乎不动
requirements.md 有需求就加
bug_notes.md 有Bug就加
test_strategy.md 每周整理
risk_model 项目结束
test_method 项目结束

结语

AI 在测试领域经常被讨论的是:

  • AI 写用例

  • AI 自动化

  • AI 提效

但从实践来看,更重要的其实是:

如何把 AI 融入日常测试工作流。

通过建立一个 AI 测试工作台,可以让:

  • 项目经验逐渐沉淀

  • 系统风险逐渐清晰

  • 测试思路越来越系统化

AI 不再只是一个聊天工具,而是测试工程师的长期协作伙伴。

后续也会继续尝试在实际项目中完善这套方法。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐