企业级AI提示系统评估:提示工程架构师的避坑指南
在企业级AI应用中,提示系统是连接业务需求与大语言模型(LLM)的核心桥梁。与小场景下“拍脑袋写提示、靠人工抽检验证”的模式不同,企业级场景需要应对多角色需求协同、高并发性能压力、长期维护迭代等复杂挑战。提示歧义导致客服回答错误,引发用户投诉;高并发下响应时间飙升,影响业务流程;提示版本混乱,无法快速回滚问题版本;忽略合规要求,导致隐私泄露或内容违规。本文将提供一套企业级AI提示系统全流程评估框架
企业级AI提示系统评估:提示工程架构师的避坑指南
副标题:从需求定义到落地优化的全流程踩坑总结
摘要/引言
在企业级AI应用中,提示系统是连接业务需求与大语言模型(LLM)的核心桥梁。与小场景下“拍脑袋写提示、靠人工抽检验证”的模式不同,企业级场景需要应对多角色需求协同、高并发性能压力、长期维护迭代等复杂挑战。许多团队因缺乏系统的评估框架,常陷入“上线即翻车”的困境:
- 提示歧义导致客服回答错误,引发用户投诉;
- 高并发下响应时间飙升,影响业务流程;
- 提示版本混乱,无法快速回滚问题版本;
- 忽略合规要求,导致隐私泄露或内容违规。
本文将提供一套企业级AI提示系统全流程评估框架,涵盖需求分析→提示设计→性能验证→维护优化→合规检查五大环节,帮助提示工程架构师系统性避坑,构建可靠、可扩展、可维护的企业级提示系统。
读完本文,你将掌握:
- 如何从企业级需求出发定义提示系统的评估指标;
- 如何设计符合企业级要求的提示(上下文管理、少样本优化);
- 如何验证企业级系统的性能(并发、响应时间)与可维护性;
- 如何规避常见的合规风险(隐私、内容审核);
- 如何建立长期迭代的优化机制。
目标读者与前置知识
目标读者
- 企业内负责AI应用开发的提示工程架构师;
- AI产品经理(需理解提示系统的评估标准);
- 资深算法工程师(需优化企业级AI系统性能);
- 运维工程师(需维护提示系统的稳定性)。
前置知识
- 了解基本的提示工程概念(零样本/少样本提示、思维链(CoT)等);
- 熟悉至少一种大语言模型(如GPT-4、Claude 3、文心一言);
- 有企业级系统开发或维护经验(理解高并发、可维护性等概念)。
文章目录
- 引言与基础
- 问题背景与动机:企业级提示系统的独特挑战
- 核心概念与理论基础:企业级提示系统的评估框架
- 环境准备:企业级提示系统评估工具链
- 分步实现:从需求到落地的全流程评估
- 5.1 需求分析:定义可量化的评估指标
- 5.2 提示设计:兼顾准确性与可维护性
- 5.3 性能验证:应对高并发的瓶颈分析
- 5.4 可维护性评估:避免“维护灾难”
- 5.5 合规性检查:守住企业的“生命线”
- 关键代码解析:避坑的技术细节
- 性能优化与最佳实践
- 常见问题与解决方案(FAQ)
- 未来展望:企业级提示系统的进化方向
- 总结
一、问题背景与动机:企业级提示系统的独特挑战
为什么企业级提示系统需要单独的评估框架?因为它与小场景(如个人开发者用GPT写文案)有本质区别:
1. 需求复杂度:多角色、多任务协同
企业内不同角色的需求差异极大:
- 客服:需要准确、友好的回答,符合品牌调性;
- 运营:需要生成符合活动主题的营销文案,兼顾转化率;
- 研发:需要辅助代码生成,要求语法正确、逻辑清晰;
- 合规:需要过滤敏感信息,确保内容符合法律法规。
小场景的“单一任务优化”无法满足企业级的“多角色协同”需求。
2. 系统要求:高可靠性与可扩展性
企业级系统需要应对:
- 性能:高并发下的响应时间(如客服系统要求P95≤2秒);
- 一致性:同一输入在不同时间、不同模型实例下的输出一致;
- 可维护性:提示版本管理、迭代效率(如修改提示后1天内上线);
- 合规性:数据隐私(如GDPR、《个人信息保护法》)、内容审核(如禁止虚假宣传)。
3. 现有方案的局限性
很多团队用小场景的评估方法评估企业级系统:
- 仅看准确性:忽略了性能、可维护性等指标;
- 人工抽检:样本量小,无法覆盖所有场景;
- 缺乏自动化:修改提示后手动测试,效率低且易遗漏。
这些方法导致上线后出现各种问题,比如:
- 提示歧义导致客服回答错误,引发用户投诉;
- 高并发下响应时间飙升,影响业务流程;
- 提示版本混乱,无法快速回滚问题版本。
二、核心概念与理论基础
在开始评估前,需明确企业级提示系统的核心概念,确保团队认知统一。
1. 企业级提示系统的分层架构
企业级提示系统通常分为四层(如图1所示),每层的评估重点不同:
- 用户层:接收不同角色的需求(如客服、运营),定义输入输出格式;
- 提示层:设计提示(角色设定、上下文管理、少样本示例),管理提示版本;
- 模型层:调用大语言模型(如GPT-4、Claude 3),处理请求;
- 数据层:存储输入输出数据、用户反馈,用于迭代优化。
图1:企业级提示系统分层架构
2. 企业级提示系统的评估维度
根据分层架构,评估需覆盖五大维度(如表1所示):
维度 | 评估重点 | 示例指标 |
---|---|---|
需求匹配 | 提示是否满足不同角色的业务需求 | 客服任务准确率≥95%、运营文案转化率≥8% |
性能 | 高并发下的响应时间、吞吐量 | 1000并发用户下,P95响应时间≤2秒、QPS≥1000 |
一致性 | 同一输入在不同条件下的输出一致 | 输出一致性≥98%(用余弦相似度计算) |
可维护性 | 提示版本管理、迭代效率 | 版本回滚时间≤30分钟、修改提示后自动化测试覆盖率≥90% |
合规性 | 数据隐私、内容审核 | 敏感信息过滤率≥100%(如身份证号、银行卡号)、内容违规率≤0.1% |
3. 提示生命周期管理
企业级提示系统需要全生命周期管理(如图2所示):
- 需求定义:明确不同角色的需求与指标;
- 提示设计:根据需求设计提示(角色设定、上下文、示例);
- 测试验证:用自动化测试验证准确性、性能、合规性;
- 上线运行:监控系统性能与用户反馈;
- 迭代优化:根据反馈调整提示,更新版本。
图2:企业级提示生命周期
三、环境准备:企业级提示系统评估工具链
评估企业级提示系统需要以下工具:
1. 提示设计与管理工具
- LangChain:用于构建提示模板、上下文管理;
- PromptLayer:用于跟踪提示的调用历史、版本管理;
- LlamaIndex:用于整合多源数据,优化提示的上下文。
2. 性能测试工具
- Locust:模拟高并发用户,测试响应时间与吞吐量;
- JMeter:用于复杂场景的性能测试(如多任务并发)。
3. 评估指标计算工具
- Hugging Face Evaluate:计算准确性、一致性等指标;
- 自定义脚本:用于计算业务相关指标(如客服准确率、运营转化率)。
4. 版本管理与监控工具
- Git:管理提示版本,记录每个版本的修改说明;
- Prometheus + Grafana:监控系统性能(响应时间、QPS);
- ELK Stack:收集用户反馈与系统日志,用于迭代优化。
5. 合规性工具
- 正则表达式:过滤敏感信息(如身份证号、银行卡号);
- 第三方审核服务:如百度内容审核、阿里云内容安全,用于检查输出内容是否合规。
环境配置清单(requirements.txt)
openai==1.35.10 # 调用GPT-4 API
anthropic==0.21.3 # 调用Claude 3 API
langchain==0.2.7 # 提示设计与管理
llama-index==0.10.51 # 上下文优化
locust==2.21.0 # 性能测试
huggingface-hub==0.22.2 # 指标计算
prometheus-client==0.19.0# 性能监控
四、分步实现:从需求到落地的全流程评估
5.1 需求分析:定义可量化的评估指标
核心原则:以业务需求为导向,将模糊的需求转化为可量化的指标。
步骤1:收集角色需求
通过访谈或问卷收集不同角色的需求:
- 客服:“需要快速回答用户的订单问题,语气友好,分点列出解决方案”;
- 运营:“需要生成符合‘618’活动主题的营销文案,包含优惠券信息”;
- 合规:“不能泄露用户的身份证号、银行卡号,输出内容不能有虚假宣传”。
步骤2:转化为可量化指标
将需求转化为SMART指标(具体、可衡量、可实现、相关、时间限制):
- 客服:订单问题准确率≥95%(用1000条测试数据验证)、响应时间≤2秒(1000并发);
- 运营:营销文案转化率≥8%(用A/B测试验证)、输出格式符合要求(分点列出优惠信息);
- 合规:敏感信息过滤率≥100%(用100条包含敏感信息的测试数据验证)、内容违规率≤0.1%(用第三方审核服务验证)。
示例:客服角色需求与指标
需求描述 | 可量化指标 |
---|---|
快速回答订单问题 | 1000并发下,P95响应时间≤2秒 |
语气友好,分点列出解决方案 | 准确率≥95%(人工标注1000条测试数据)、输出格式符合要求(分点率≥98%) |
不泄露用户隐私 | 敏感信息过滤率≥100%(测试数据包含身份证号、银行卡号) |
5.2 提示设计:兼顾准确性与可维护性
核心原则:提示设计需围绕需求指标,避免过度设计。
步骤1:定义角色设定与输出格式
角色设定明确AI的身份与行为准则,输出格式明确输出的结构(如分点、JSON)。
示例:客服提示的角色设定
你是友好的客服人员,负责帮助用户解决订单问题。要求:
1. 语气亲切,使用“您好”“请问”等礼貌用语;
2. 分点列出解决方案(用“•”开头);
3. 不要泄露用户的隐私信息(如身份证号、银行卡号);
4. 如果无法回答,请回复“抱歉,我需要帮您转接到人工客服”。
示例:运营提示的输出格式
请生成“618”活动的营销文案,要求:
- 包含“满200减50”“前100名下单送礼品”等优惠信息;
- 用口语化的语言,符合年轻人的审美;
- 输出格式:标题(10字以内)+ 正文(200字以内)+ 优惠清单(分点)。
步骤2:优化上下文管理
上下文管理影响提示的性能与准确性:
- 上下文窗口大小:根据任务需求设定(如客服保留最近3轮对话),避免上下文过长导致模型处理时间长;
- 上下文过滤:过滤无关信息(如用户的闲聊内容),减少提示长度。
示例:客服上下文管理代码(LangChain)
from langchain.prompts import PromptTemplate
from langchain.schema import HumanMessage, AIMessage
# 定义上下文窗口大小(保留最近3轮对话)
CONTEXT_WINDOW_SIZE = 3
def get_context(messages: list) -> list:
"""获取最近3轮对话上下文"""
return messages[-CONTEXT_WINDOW_SIZE:]
# 模拟对话历史
messages = [
HumanMessage(content="我的订单还没发货"),
AIMessage(content="您好,请问您的订单号是多少?我帮您查询。"),
HumanMessage(content="订单号是123456"),
AIMessage(content="您好,您的订单123456已经发货,预计明天到达。"),
HumanMessage(content="我的订单什么时候到?")
]
# 获取最近3轮对话
context = get_context(messages)
# 生成提示
prompt_template = PromptTemplate(
input_variables=["context", "user_input"],
template="""
上下文:{context}
用户输入:{user_input}
请按照以下要求回答:
• 语气亲切,使用礼貌用语;
• 分点列出解决方案;
• 不要泄露用户隐私。
"""
)
prompt = prompt_template.format(context=context, user_input=messages[-1].content)
print(prompt)
步骤3:用少样本提示优化准确性
少样本提示通过提供示例,帮助模型理解任务要求。
示例:客服提示的少样本示例
示例1:
用户输入:我的订单还没发货
回答:• 您好,请提供您的订单号,我帮您查询发货状态。
示例2:
用户输入:我的订单号是123456,还没发货
回答:• 您好,您的订单123456已经发货,预计明天到达。• 请耐心等待,如有问题请随时联系我们。
步骤4:自动化测试验证
用测试数据验证提示的准确性与一致性。
示例:客服提示的自动化测试
import openai
from evaluate import load
# 加载准确性指标
accuracy = load("accuracy")
# 测试数据(输入+预期输出)
test_data = [
{
"input": "我的订单还没发货",
"expected": "• 您好,请提供您的订单号,我帮您查询发货状态。"
},
{
"input": "我的订单号是123456,还没发货",
"expected": "• 您好,您的订单123456已经发货,预计明天到达。• 请耐心等待,如有问题请随时联系我们。"
}
]
# 调用模型生成输出
def generate_output(prompt):
response = openai.ChatCompletion.create(
model="gpt-4",
messages=[{"role": "user", "content": prompt}]
)
return response.choices[0].message.content
# 计算准确性
predictions = []
references = []
for data in test_data:
prompt = prompt_template.format(context=[], user_input=data["input"])
output = generate_output(prompt)
predictions.append(output)
references.append(data["expected"])
# 输出准确性
print(f"准确率:{accuracy.compute(predictions=predictions, references=references)}")
坑点提醒:
- 不要过度依赖少样本示例:示例过多会增加提示长度,影响性能;
- 示例需具有代表性:覆盖常见场景(如订单未发货、地址修改),避免边缘案例。
5.3 性能验证:应对高并发的瓶颈分析
核心原则:性能验证需模拟真实场景,找出瓶颈并优化。
步骤1:模拟高并发场景
用Locust模拟高并发用户,测试响应时间与吞吐量。
示例:Locust性能测试脚本
from locust import HttpUser, task, between
class PromptUser(HttpUser):
wait_time = between(1, 3) # 每个用户的请求间隔
@task
def call_prompt(self):
# 模拟用户输入
user_input = "我的订单还没发货"
# 发送请求(假设提示系统有一个API接口)
self.client.post("/api/prompt", json={"input": user_input})
# 运行命令:locust -f locustfile.py --host=http://localhost:8000
步骤2:分析瓶颈
根据Locust的测试结果,分析瓶颈:
- 提示过长:如果提示包含太多上下文(如10轮对话),会增加模型的处理时间;
- 模型API限制:如果模型的API并发量有限(如OpenAI的GPT-4并发量为100),会导致请求排队;
- 系统架构问题:如果提示系统的架构不合理(如单实例部署),会无法应对高并发。
步骤3:优化性能
- 精简提示:缩短上下文窗口(如保留最近3轮对话),去掉不必要的信息;
- 使用批量处理:对于高并发任务,使用模型的批量处理接口(如OpenAI的
batch
API),减少API调用次数; - 增加模型实例:如果模型API限制并发量,增加模型实例(如使用多个GPT-4实例);
- 缓存结果:对于重复的请求(如常见的订单问题),缓存结果,减少模型调用。
示例:批量处理优化
# 使用OpenAI的批量处理接口
import openai
# 批量请求数据
batch_inputs = [
{"input": "我的订单还没发货"},
{"input": "我的订单号是123456,还没发货"},
{"input": "我想修改收货地址"}
]
# 生成批量提示
prompts = [prompt_template.format(context=[], user_input=data["input"]) for data in batch_inputs]
# 调用批量接口
response = openai.ChatCompletion.create(
model="gpt-4",
messages=[{"role": "user", "content": prompt} for prompt in prompts],
n=1, # 每个请求生成1个输出
batch_size=3 # 批量处理3个请求
)
# 处理输出
for i, choice in enumerate(response.choices):
print(f"输入:{batch_inputs[i]['input']},输出:{choice.message.content}")
坑点提醒:
- 不要过度缓存:对于动态内容(如实时订单状态),缓存会导致输出不准确;
- 批量处理需注意模型的限制:如OpenAI的批量处理接口最多支持100个请求 per batch。
5.4 可维护性评估:避免“维护灾难”
核心原则:可维护性评估需关注版本管理与迭代效率。
步骤1:评估版本管理
- 版本控制:用Git管理提示,每个版本有明确的说明(如
v1.0
:初始版本,v1.1
:优化了订单问题的回答); - 版本回滚:当提示出现问题时,能否快速回滚到之前的版本(如用PromptLayer的版本管理功能);
- 版本对比:能否对比不同版本的提示(如用Git的
diff
命令),找出修改点。
示例:Git版本管理
# 初始化Git仓库
git init
# 添加提示文件
git add prompt.txt
# 提交版本(v1.0)
git commit -m "v1.0: 初始版本,客服提示"
# 修改提示文件(优化订单问题的回答)
git add prompt.txt
# 提交版本(v1.1)
git commit -m "v1.1: 优化订单问题的回答,增加示例"
# 回滚到v1.0版本
git checkout v1.0
步骤2:评估迭代效率
- 自动化测试:每修改提示后,自动运行测试用例(如用Pytest),验证准确性与性能;
- 快速上线:修改提示后,能否快速上线(如用CI/CD流程,将提示部署到生产环境);
- 文档齐全:每个提示有详细的文档(如用途、输入输出格式、示例),新团队成员能快速理解。
示例:自动化测试流程
# 运行自动化测试(用Pytest)
pytest test_prompt.py
# 如果测试通过,部署到生产环境(用Docker)
docker build -t prompt-system:v1.1 .
docker run -d -p 8000:8000 prompt-system:v1.1
坑点提醒:
- 不要忽略文档:没有文档的提示,新团队成员无法快速理解,增加维护成本;
- 不要跳过自动化测试:手动测试易遗漏问题,自动化测试能确保每次修改的正确性。
5.5 合规性检查:守住企业的“生命线”
核心原则:合规性检查需覆盖数据隐私与内容审核,避免法律风险。
步骤1:数据隐私保护
- 过滤敏感信息:用正则表达式过滤用户输入中的敏感信息(如身份证号、银行卡号);
- 匿名化处理:对于需要保留的信息(如订单号),进行匿名化处理(如用“订单号:***1234”代替)。
示例:敏感信息过滤
import re
def filter_sensitive_info(text):
# 过滤身份证号(18位)
id_card_pattern = r"\d{17}[\dXx]"
text = re.sub(id_card_pattern, "***", text)
# 过滤银行卡号(16-19位)
bank_card_pattern = r"\d{16,19}"
text = re.sub(bank_card_pattern, "***", text)
return text
# 测试:输入包含身份证号
user_input = "我的身份证号是110101199001011234,订单还没发货"
filtered_input = filter_sensitive_info(user_input)
print(filtered_input) # 输出:我的身份证号是***,订单还没发货
步骤2:内容审核
- 自定义审核规则:用正则表达式或关键词过滤违规内容(如歧视性语言、虚假宣传);
- 第三方审核服务:使用第三方服务(如百度内容审核、阿里云内容安全)检查输出内容是否合规。
示例:第三方内容审核
# 使用百度内容审核API
from baidu_aip import AipContentCensor
# 初始化客户端
client = AipContentCensor("APP_ID", "API_KEY", "SECRET_KEY")
# 审核输出内容
def check_content(content):
result = client.textCensorUserDefined(content)
if result["conclusion"] == "合规":
return True
else:
return False
# 测试:输出包含虚假宣传
output = "本产品能治愈癌症,无效退款"
if not check_content(output):
print("输出内容违规,需修改")
坑点提醒:
- 不要依赖人工审核:人工审核效率低,无法应对高并发场景;
- 不要忽略地区差异:不同地区的合规要求不同(如欧盟的GDPR与中国的《个人信息保护法》),需根据目标市场调整审核规则。
五、关键代码解析:避坑的技术细节
1. 上下文管理的优化
问题:上下文过长会增加模型的处理时间,影响性能。
解决方案:保留最近3轮对话,去掉不必要的信息。
代码示例:
def get_context(messages: list) -> list:
"""保留最近3轮对话"""
return messages[-3:] # 取最后3条消息
2. 版本管理的实现
问题:没有版本管理,无法快速回滚问题版本。
解决方案:用Git管理提示,每个版本有明确的说明。
代码示例:
# 提交版本时添加说明
git commit -m "v1.2: 优化了客服提示的输出格式,增加了分点要求"
3. 敏感信息过滤的实现
问题:用户输入中的敏感信息未过滤,导致隐私泄露。
解决方案:用正则表达式过滤敏感信息。
代码示例:
import re
def filter_sensitive_info(text):
# 过滤身份证号(18位)
id_card_pattern = r"\d{17}[\dXx]"
text = re.sub(id_card_pattern, "***", text)
# 过滤银行卡号(16-19位)
bank_card_pattern = r"\d{16,19}"
text = re.sub(bank_card_pattern, "***", text)
return text
六、性能优化与最佳实践
1. 性能优化技巧
- 精简提示:去掉不必要的信息,缩短提示长度;
- 使用批量处理:对于高并发任务,使用模型的批量处理接口;
- 缓存结果:对于重复的请求,缓存结果,减少模型调用;
- 选择合适的模型:根据任务需求选择模型(如生成类任务用GPT-4,推理类任务用Claude 3)。
2. 最佳实践
- 建立自动化测试流程:每修改提示后,自动运行测试用例,验证准确性与性能;
- 使用版本管理工具:用Git管理提示,每个版本有明确的说明;
- 定期 review 提示:每月一次,评估提示的效果与可维护性;
- 收集用户反馈:通过用户评分或人工审核,收集提示的效果反馈,用于迭代。
七、常见问题与解决方案(FAQ)
1. 提示效果不稳定,怎么办?
原因:提示歧义、少样本示例不具有代表性、模型的随机性。
解决方案:
- 明确提示的输入输出格式;
- 增加具有代表性的少样本示例;
- 使用
temperature
参数(如设置为0.1),减少模型的随机性。
2. 高并发下响应时间长,怎么办?
原因:提示过长、模型API限制、系统架构问题。
解决方案:
- 精简提示,缩短上下文窗口;
- 使用模型的批量处理接口;
- 增加模型实例,优化系统架构。
3. 维护时找不到之前的提示版本,怎么办?
原因:没有版本管理。
解决方案:用Git管理提示,每个版本有明确的说明。
4. 输出内容违规,怎么办?
原因:没有合规性检查。
解决方案:
- 用正则表达式过滤敏感信息;
- 使用第三方审核服务检查输出内容。
八、未来展望:企业级提示系统的进化方向
1. 自动化提示优化
用强化学习(RL)自动优化提示,根据用户反馈调整提示的内容与结构。
2. 多模型协同
根据任务需求选择合适的模型(如生成类任务用GPT-4,推理类任务用Claude 3),提升系统的性能与准确性。
3. 智能上下文管理
根据用户的历史对话,动态调整上下文窗口大小(如对于新用户,保留最近1轮对话;对于老用户,保留最近5轮对话)。
4. 可解释性提示
让模型解释为什么生成这样的输出(如“我生成这个回答是因为用户问了订单问题,需要提供订单号”),帮助用户理解。
九、总结
企业级AI提示系统的评估是一个全流程、多维度的过程,需要覆盖需求分析、提示设计、性能验证、维护优化、合规检查等环节。本文提供的评估框架,帮助提示工程架构师系统性避坑,构建可靠、可扩展、可维护的企业级提示系统。
核心要点:
- 需求分析是评估的基础,需将模糊的需求转化为可量化的指标;
- 提示设计需围绕需求指标,避免过度设计;
- 性能验证需模拟真实场景,找出瓶颈并优化;
- 可维护性评估需关注版本管理与迭代效率;
- 合规性检查是企业的“生命线”,需覆盖数据隐私与内容审核。
希望本文能帮助你在企业级提示系统的评估与构建中,少走弯路,多避坑!
十、参考资料
- OpenAI官方文档:《Prompt Engineering Guide》;
- Anthropic官方文档:《Claude 3 Prompt Best Practices》;
- LangChain文档:《Prompt Management》;
- Locust文档:《Performance Testing with Locust》;
- 《企业级AI应用开发》书籍;
- 百度内容审核API文档:《Text Censor》。
十一、附录
1. 完整源代码链接
2. 性能测试配置文件
3. 提示文档模板
提示名称 | 用途 | 输入格式 | 输出格式 | 示例 |
---|---|---|---|---|
客服提示 | 解决用户订单问题 | 用户输入(字符串) | 分点列出解决方案(字符串) | 输入:“我的订单还没发货”;输出:“• 您好,请提供您的订单号,我帮您查询发货状态。” |
运营提示 | 生成营销文案 | 活动主题(字符串) | 标题+正文+优惠清单(字符串) | 输入:“618活动”;输出:“标题:618狂欢节;正文:…;优惠清单:• 满200减50” |
发布前检查清单:
- 技术准确性:所有代码和命令都经过验证;
- 逻辑流畅性:结构清晰,论述自然;
- 拼写与语法:没有错别字或语法错误;
- 格式化:标题、代码块、列表等格式统一;
- 图文并茂:有架构图、性能测试结果截图;
- SEO优化:标题和正文中包含“企业级AI提示系统评估”、“提示工程架构师”、“避坑指南”等关键词。
更多推荐
所有评论(0)