提示工程架构师揭秘提升AI性能的独特技巧和策略
你是否遇到过这样的情况?用ChatGPT写文案,结果偏离主题,满篇空话;让Claude解决数学问题,输出的答案逻辑混乱,甚至计算错误;调用自定义LLM模型生成代码,格式乱七八糟,无法直接运行;多轮对话中,模型居然忘了之前的上下文,重复问同样的问题。这些问题的根源,不是AI模型不够强,而是你的prompt没有充分引导模型的潜力。
提示工程架构师实战手册:提升AI模型性能的10大独特技巧与系统策略
副标题:从基础优化到高级引导,教你用prompt解锁LLM潜力
摘要/引言
你是否遇到过这样的情况?
- 用ChatGPT写文案,结果偏离主题,满篇空话;
- 让Claude解决数学问题,输出的答案逻辑混乱,甚至计算错误;
- 调用自定义LLM模型生成代码,格式乱七八糟,无法直接运行;
- 多轮对话中,模型居然忘了之前的上下文,重复问同样的问题。
这些问题的根源,不是AI模型不够强,而是你的prompt没有充分引导模型的潜力。
作为一名拥有3年prompt工程经验的架构师,我曾为金融、医疗、教育等行业设计过 dozens of 高效果prompt方案,解决过“模型输出不稳定”“复杂任务无法处理”“生成内容质量低”等核心问题。今天,我将把实战中总结的10大独特技巧与系统策略分享给你——从基础的“指令优化”到高级的“思维链引导”,从“上下文管理”到“错误纠正”,帮你彻底告别“靠运气调prompt”的时代,用科学的方法提升AI性能。
读完本文,你将掌握:
- 如何写出“让模型秒懂”的清晰prompt;
- 如何引导模型进行“逐步推理”,解决复杂问题;
- 如何管理多轮对话的上下文,保持一致性;
- 如何快速纠正模型的错误输出;
- 如何根据任务类型个性化调整prompt。
目标读者与前置知识
目标读者:
- 有AI应用经验的开发者(使用过OpenAI API、Anthropic API或自定义LLM);
- 产品经理(需要设计AI功能,提升用户体验);
- AI从业者(希望系统学习提示工程,提升工作效率)。
前置知识:
- 了解LLM基本概念(生成式AI、prompt);
- 有使用ChatGPT、Claude等工具的经验;
- 能读懂简单的Python代码(可选)。
文章目录
- 引言与基础
- 问题背景:为什么prompt决定AI性能?
- 核心概念:prompt的结构与LLM的工作原理
- 实战技巧1:基础优化——用“清晰指令”替代“模糊要求”
- 实战技巧2:高级引导——思维链(CoT)让模型学会“思考”
- 实战技巧3:上下文管理——多轮对话不“忘事”
- 实战技巧4:错误纠正——用“反馈prompt”修复模型输出
- 实战技巧5:个性化调整——根据任务类型定制prompt
- 实战技巧6:格式约束——用“模板”强制模型输出规范
- 实战技巧7:性能评估——量化prompt效果的3种方法
- 实战技巧8:避坑指南——不要踩的5个prompt误区
- 未来展望:prompt工程的下一个风口
- 总结:从“试错”到“系统”,做有逻辑的prompt设计者
问题背景:为什么prompt决定AI性能?
1. AI模型的“黑盒”特性
LLM(大语言模型)本质是一个“统计预测机器”——它根据输入的prompt,预测下一个最可能的词。但它没有“理解”能力,只能根据训练数据中的模式生成内容。因此,prompt是你与模型之间的“沟通桥梁”,你的表达越清晰,模型的输出越符合预期。
2. 现有解决方案的局限性
很多人使用prompt的方式是“凭感觉”:比如写一句“帮我写篇文章”,然后等待结果。这种方法的问题在于:
- 模糊性:模型无法理解“文章”的主题、风格、长度;
- 缺乏引导:模型不知道“如何思考”,只能随机生成;
- 没有约束:输出格式、逻辑结构无法控制。
3. 提示工程的价值
提示工程的核心是用科学的方法设计prompt,让模型的输出更准确、更一致、更符合需求。比如:
- 对于“生成摘要”任务,好的prompt能让模型提取关键信息,避免冗余;
- 对于“解决数学问题”任务,好的prompt能让模型逐步推理,减少错误;
- 对于“多轮对话”任务,好的prompt能让模型保持上下文一致,提升用户体验。
核心概念:prompt的结构与LLM的工作原理
在学习技巧之前,我们需要先明确两个核心概念:prompt的结构和LLM的工作原理。
1. prompt的结构
一个有效的prompt通常包含4个部分(简称“ICIO”):
- 指令(Instruction):告诉模型要做什么(比如“写摘要”“解决问题”);
- 上下文(Context):提供必要的背景信息(比如“用户的历史对话”“相关数据”);
- 输入(Input):具体的任务内容(比如“需要总结的文章”“需要解决的问题”);
- 输出格式(Output Format):要求模型输出的格式(比如“JSON”“列表”“段落”)。
示例:
指令:请总结以下文章的核心内容。
上下文:这是一篇关于人工智能伦理的文章,主要讨论了AI在招聘中的偏见问题。
输入:[文章内容]
输出格式:用3句话概括,每句话不超过50字。
2. LLM的工作原理
LLM(比如GPT-4、Claude 3)基于Transformer架构,通过“自注意力机制”处理输入的prompt。简单来说,模型会:
- 将prompt转换为向量(Token);
- 分析Token之间的关系(比如“伦理”和“偏见”的关联);
- 根据训练数据中的模式,预测下一个最可能的Token;
- 重复这个过程,直到生成完整的输出。
关键结论:
- 模型的输出依赖于prompt的清晰度和逻辑性;
- 你可以通过调整prompt的结构,引导模型的“注意力”(比如强调“伦理”这个关键词)。
实战技巧1:基础优化——用“清晰指令”替代“模糊要求”
问题:很多人写prompt时,喜欢用模糊的要求(比如“帮我写篇文章”),导致模型输出偏离预期。
解决方案:用具体、明确的指令,告诉模型“做什么”“怎么做”“做到什么程度”。
技巧细节
好的指令需要包含以下元素:
- 任务类型:明确是“写摘要”“解决问题”还是“生成代码”;
- 目标受众:比如“面向普通读者”“面向程序员”;
- 风格要求:比如“通俗易懂”“严谨专业”;
- 长度限制:比如“300字以内”“5句话”;
- 禁止内容:比如“不要涉及政治”“不要使用 technical 术语”。
案例对比
模糊prompt:
帮我写一篇关于人工智能的文章。
输出结果(示例):
人工智能是当今最热门的技术之一,它改变了我们的生活方式。从智能手机到自动驾驶汽车,AI无处不在。未来,AI将继续发展,带来更多的机遇和挑战。
问题:内容泛泛而谈,没有重点,不符合“有深度”的需求。
优化后prompt:
请写一篇面向普通读者的人工智能科普文章,重点介绍以下内容:
1. AI的核心概念(用“大脑”类比);
2. AI在日常生活中的应用(比如推荐算法、语音助手);
3. AI的伦理问题(比如隐私、偏见)。
要求:
- 语言通俗易懂,避免 technical 术语;
- 每部分用小标题分隔;
- 总长度不超过800字。
输出结果(示例):
人工智能:像“大脑”一样思考的机器
人工智能(AI)就像一台“电子大脑”,它能通过学习数据,完成人类需要思考的任务——比如识别图片中的猫、听懂语音指令、甚至下围棋。
AI在生活中的“隐形”应用
你可能没意识到,AI已经渗透到生活的方方面面:比如短视频的推荐算法,会根据你的浏览记录推荐你喜欢的内容;语音助手(比如Siri)能听懂你的指令,帮你设置闹钟、查询天气。
AI的“伦理困境”
虽然AI很强大,但它也带来了一些问题。比如,AI在招聘中的偏见:如果训练数据中包含对女性的歧视,AI可能会拒绝女性求职者;再比如,AI的隐私问题:它需要收集大量个人数据,可能会泄露你的信息。
效果对比:
- 优化后的prompt让模型明确了“任务类型”(科普文章)、“目标受众”(普通读者)、“内容结构”(3部分)、“风格要求”(通俗易懂);
- 输出结果更符合预期,结构清晰,重点突出。
代码示例(OpenAI API)
如果你用OpenAI API调用模型,可以这样写prompt:
import openai
openai.api_key = "your-api-key"
prompt = """
请写一篇面向普通读者的人工智能科普文章,重点介绍以下内容:
1. AI的核心概念(用“大脑”类比);
2. AI在日常生活中的应用(比如推荐算法、语音助手);
3. AI的伦理问题(比如隐私、偏见)。
要求:
- 语言通俗易懂,避免 technical 术语;
- 每部分用小标题分隔;
- 总长度不超过800字。
"""
response = openai.ChatCompletion.create(
model="gpt-4",
messages=[{"role": "user", "content": prompt}]
)
print(response.choices[0].message.content)
实战技巧2:高级引导——思维链(CoT)让模型学会“思考”
问题:当处理复杂任务(比如数学问题、逻辑推理)时,模型直接输出答案往往会出错,因为它没有“逐步思考”的过程。
解决方案:使用思维链(Chain of Thought, CoT),让模型先分解问题,再逐步解决。
技巧细节
思维链的核心是让模型“说出”思考过程,而不是直接给出答案。具体来说,你需要在prompt中加入:
- 步骤提示:比如“请先分析问题的关键点,再逐步解决”;
- 示例:如果任务复杂,可以给出一个解决示例,让模型模仿。
案例对比(数学问题)
普通prompt:
一个书架有5层,每层有8本书,现在拿走12本,还剩多少本?
输出结果(可能错误):
5×8=40,40-12=28,所以还剩28本。(正确,但如果是更复杂的问题,比如“书架有5层,每层有8本书,拿走12本后,又放了5本,还剩多少本?”,模型可能会直接算5×8-12+5=33,但如果中间步骤错了,结果也会错。)
思维链prompt:
请解决以下数学问题,先分解步骤,再给出答案:
问题:一个书架有5层,每层有8本书,现在拿走12本,还剩多少本?
步骤1:计算书架原本有多少本书;
步骤2:计算拿走12本后剩下的数量。
输出结果(正确且清晰):
步骤1:书架原本有5层×8本/层=40本;
步骤2:拿走12本后,剩下40本-12本=28本;
答案:还剩28本。
案例对比(逻辑推理)
普通prompt:
如果所有的鸟都会飞,而企鹅是鸟,那么企鹅会飞吗?
输出结果(可能错误):
是的,企鹅会飞。(错误,因为企鹅不会飞,但模型根据“所有鸟都会飞”的前提,得出了错误结论。)
思维链prompt:
请解决以下逻辑问题,先分析前提,再得出结论:
问题:如果所有的鸟都会飞,而企鹅是鸟,那么企鹅会飞吗?
步骤1:分析前提是否正确;
步骤2:根据前提推导结论。
输出结果(正确):
步骤1:前提“所有的鸟都会飞”是错误的,因为企鹅是鸟,但不会飞;
步骤2:虽然根据前提“所有的鸟都会飞”和“企鹅是鸟”,可以推导出“企鹅会飞”,但由于前提错误,结论也错误。
结论:企鹅不会飞。
代码示例(Anthropic API)
如果你用Anthropic API调用Claude 3,可以这样写prompt:
from anthropic import Anthropic
anthropic = Anthropic(api_key="your-api-key")
prompt = """
请解决以下逻辑问题,先分析前提,再得出结论:
问题:如果所有的鸟都会飞,而企鹅是鸟,那么企鹅会飞吗?
步骤1:分析前提是否正确;
步骤2:根据前提推导结论。
"""
response = anthropic.messages.create(
model="claude-3-opus-20240229",
max_tokens=1000,
messages=[{"role": "user", "content": prompt}]
)
print(response.content[0].text)
实战技巧3:上下文管理——多轮对话不“忘事”
问题:在多轮对话中,模型经常会忘记之前的上下文(比如用户之前提到的订单号、偏好),导致输出不一致。
解决方案:保留上下文信息,在每轮对话的prompt中加入之前的对话历史。
技巧细节
上下文管理的关键是将历史对话作为“上下文”传入prompt。具体来说,你需要:
- 存储历史对话:比如用列表保存用户和模型的对话记录;
- 截断历史对话:如果对话过长,需要截断(比如保留最近5轮),避免超过模型的Token限制;
- 突出关键信息:比如在prompt中强调“用户之前提到的订单号是12345”。
案例对比
多轮对话场景:
用户:“我的订单还没到,订单号是12345。”
模型:“好的,我帮你查询一下订单12345的物流信息。”
用户:“它什么时候能到?”
普通prompt(不保留上下文):
用户问:“它什么时候能到?”,请回复。
输出结果(错误):
请问你指的是哪个订单?
上下文管理prompt(保留历史对话):
用户之前的对话:
用户:“我的订单还没到,订单号是12345。”
模型:“好的,我帮你查询一下订单12345的物流信息。”
现在用户问:“它什么时候能到?”
请根据历史对话,回复用户的问题。
输出结果(正确):
根据物流信息,订单12345预计明天(2024年5月10日)到达。
代码示例(LangChain)
LangChain是一个用于构建LLM应用的框架,它内置了上下文管理功能。以下是一个简单的示例:
from langchain.chat_models import ChatOpenAI
from langchain.chains import ConversationChain
from langchain.memory import ConversationBufferMemory
# 初始化模型和记忆
llm = ChatOpenAI(model_name="gpt-4")
memory = ConversationBufferMemory()
conversation = ConversationChain(llm=llm, memory=memory)
# 第一轮对话
user_input1 = "我的订单还没到,订单号是12345。"
response1 = conversation.predict(input=user_input1)
print(f"模型回复1:{response1}")
# 第二轮对话
user_input2 = "它什么时候能到?"
response2 = conversation.predict(input=user_input2)
print(f"模型回复2:{response2}")
输出结果:
模型回复1:好的,我帮你查询一下订单12345的物流信息。
模型回复2:根据物流信息,订单12345预计明天(2024年5月10日)到达。
说明:
ConversationBufferMemory
会保存历史对话;ConversationChain
会自动将历史对话加入prompt,无需手动处理。
实战技巧4:错误纠正——用“反馈prompt”修复模型输出
问题:模型有时会输出错误的信息(比如事实错误、逻辑错误),如何快速纠正?
解决方案:使用反馈prompt,告诉模型“哪里错了”“如何改”。
技巧细节
反馈prompt的核心是明确指出错误,并给出正确的示例。具体来说,你需要:
- 指出错误:比如“你提到的‘企鹅会飞’是错误的,因为企鹅不会飞”;
- 给出正确信息:比如“正确的说法是‘企鹅不会飞’”;
- 要求修改:比如“请根据正确信息,重新生成内容”。
案例对比
原始prompt:
请介绍一下企鹅的特征。
输出结果(错误):
企鹅是一种会飞的鸟,生活在南极地区,以鱼为食。
反馈prompt:
你之前介绍企鹅时,提到“企鹅是一种会飞的鸟”,这是错误的。正确的说法是“企鹅是一种不会飞的鸟”。请根据正确信息,重新生成内容。
输出结果(正确):
企鹅是一种不会飞的鸟,生活在南极地区,以鱼为食。它们的翅膀已经退化,适合在水中游泳。
代码示例(OpenAI API)
import openai
openai.api_key = "your-api-key"
# 原始对话
original_prompt = "请介绍一下企鹅的特征。"
response = openai.ChatCompletion.create(
model="gpt-4",
messages=[{"role": "user", "content": original_prompt}]
)
original_output = response.choices[0].message.content
print(f"原始输出:{original_output}")
# 反馈prompt
feedback_prompt = f"""
你之前介绍企鹅时,提到“企鹅是一种会飞的鸟”,这是错误的。正确的说法是“企鹅是一种不会飞的鸟”。请根据正确信息,重新生成内容。
"""
response = openai.ChatCompletion.create(
model="gpt-4",
messages=[
{"role": "user", "content": original_prompt},
{"role": "assistant", "content": original_output},
{"role": "user", "content": feedback_prompt}
]
)
corrected_output = response.choices[0].message.content
print(f"纠正后输出:{corrected_output}")
输出结果:
原始输出:企鹅是一种会飞的鸟,生活在南极地区,以鱼为食。
纠正后输出:企鹅是一种不会飞的鸟,生活在南极地区,以鱼为食。它们的翅膀已经退化,适合在水中游泳。
实战技巧5:个性化调整——根据任务类型定制prompt
问题:不同的任务类型(比如生成创意内容、生成技术文档、解决数学问题)需要不同的prompt,如何调整?
解决方案:根据任务类型,调整prompt的结构和风格。
技巧细节
不同任务类型的prompt调整方向:
- 创意内容(比如故事、诗歌):需要更开放的指令,鼓励模型发挥想象力(比如“请写一个关于未来城市的科幻故事,包含飞行汽车、智能建筑等元素”);
- 技术文档(比如代码注释、API文档):需要更严谨的指令,明确格式要求(比如“请写一份Python函数的技术文档,包含函数功能、参数说明、返回值、示例代码,格式遵循Google风格指南”);
- 数学问题:需要用思维链,让模型逐步推理(比如“请解决以下数学问题,先分解步骤,再给出答案”);
- 客户服务:需要更友好的语气,保持上下文一致(比如“用户之前提到订单号12345,询问物流信息,请查询并回复”)。
案例对比(创意内容 vs 技术文档)
创意内容prompt:
请写一个关于未来城市的科幻故事,包含以下元素:
- 飞行汽车;
- 智能建筑(能自动调节温度、灯光);
- 环保能源(比如太阳能、风能);
风格:偏向奇幻,适合青少年阅读。
输出结果(示例):
在未来的城市里,飞行汽车像鸟儿一样在天空中穿梭,智能建筑会根据阳光自动调节温度,街道两旁的路灯用太阳能供电。小明坐在飞行汽车里,看着窗外的景色,心里想:“未来的世界真美好!”
技术文档prompt:
请写一份Python函数的技术文档,函数功能是计算两个数的和,函数名是add。要求:
- 包含“函数功能”“参数说明”“返回值”“示例代码”四个部分;
- 格式遵循Google风格指南;
- 语言严谨,避免歧义。
输出结果(示例):
def add(a: int, b: int) -> int: """ 计算两个数的和。 函数功能:接收两个整数,返回它们的和。 参数说明: a (int):第一个加数; b (int):第二个加数。 返回值: int:两个数的和。 示例代码: >>> add(1, 2) 3 >>> add(5, 3) 8 """ return a + b
实战技巧5:格式约束——用“模板”强制模型输出规范
问题:模型有时会输出不符合要求的格式(比如需要JSON格式,结果输出了段落),如何解决?
解决方案:使用格式模板,明确要求模型输出的格式。
技巧细节
格式约束的核心是用具体的模板,告诉模型“应该怎么输出”。具体来说,你需要:
- 指定格式类型:比如“JSON”“列表”“表格”;
- 给出示例:比如“请用JSON格式输出,包含‘标题’‘内容’‘作者’三个字段”;
- 强制遵守:比如“必须严格按照示例格式输出,否则无效”。
案例对比
普通prompt:
请介绍一下苹果的特征。
输出结果(段落格式):
苹果是一种常见的水果,颜色有红色、绿色等,味道酸甜,富含维生素C。
格式约束prompt:
请用JSON格式介绍苹果的特征,包含以下字段:
- "名称":水果名称;
- "颜色":常见颜色;
- "味道":口感描述;
- "营养":主要营养成分。
输出结果(符合要求):
{
“名称”: “苹果”,
“颜色”: “红色、绿色”,
“味道”: “酸甜”,
“营养”: “维生素C、膳食纤维”
}
代码示例(OpenAI API)
import openai
openai.api_key = "your-api-key"
prompt = """
请用JSON格式介绍苹果的特征,包含以下字段:
- "名称":水果名称;
- "颜色":常见颜色;
- "味道":口感描述;
- "营养":主要营养成分。
"""
response = openai.ChatCompletion.create(
model="gpt-4",
messages=[{"role": "user", "content": prompt}]
)
# 解析JSON输出
import json
output_json = json.loads(response.choices[0].message.content)
print(f"名称:{output_json['名称']}")
print(f"颜色:{output_json['颜色']}")
print(f"味道:{output_json['味道']}")
print(f"营养:{output_json['营养']}")
实战技巧6:性能评估——量化prompt效果的3种方法
问题:如何判断一个prompt的效果好不好?
解决方案:使用量化指标,从准确性、一致性、效率三个维度评估。
1. 准确性(Accuracy)
定义:模型输出的内容是否正确(比如事实是否准确、逻辑是否合理)。
评估方法:
- 人工检查:邀请领域专家检查输出内容的准确性;
- 自动检查:使用工具(比如FactCheck工具、逻辑推理工具)检查输出内容。
示例:对于“生成摘要”任务,可以用人工检查摘要是否包含了原文的关键信息,是否有错误。
2. 一致性(Consistency)
定义:模型对同一任务的输出是否一致(比如多次调用同一prompt,输出结果是否相同)。
评估方法:
- 多次调用:调用模型10次,检查输出结果的一致性;
- 统计分析:计算输出结果的重复率(比如有多少次输出是相同的)。
示例:对于“生成代码”任务,多次调用同一prompt,检查生成的代码是否一致。
3. 效率(Efficiency)
定义:模型生成输出的速度(比如响应时间)和资源消耗(比如Token数量)。
评估方法:
- 响应时间:记录模型生成输出的时间;
- Token数量:计算prompt和输出的Token数量(比如用OpenAI的Token计算器)。
示例:对于“生成文章”任务,比较不同prompt的Token数量,选择更简洁的prompt(减少成本)。
工具推荐
- OpenAI Token Calculator:计算prompt和输出的Token数量(https://platform.openai.com/tokenizer);
- FactCheck工具:比如Google Fact Check Explorer(https://toolbox.google.com/factcheck/explorer);
- LangChain Evaluation:用于评估LLM应用的性能(https://python.langchain.com/docs/evaluation)。
实战技巧7:避坑指南——不要踩的5个prompt误区
误区1:过于冗长
- 问题:prompt太长,模型无法处理(比如超过Token限制);
- 解决方案:保持prompt简洁,只包含必要的信息(比如去掉无关的背景信息)。
误区2:使用歧义词汇
- 问题:prompt中的词汇有歧义(比如“好的”可以指“质量好”或“同意”);
- 解决方案:使用具体的词汇(比如“质量好”改为“无瑕疵”)。
误区3:没有格式要求
- 问题:模型输出的格式不符合要求(比如需要JSON,结果输出了段落);
- 解决方案:明确指定输出格式(比如“请用JSON格式输出”)。
误区4:忽略上下文
- 问题:多轮对话中,模型忘记之前的上下文;
- 解决方案:保留历史对话,用LangChain等工具管理上下文。
误区5:没有反馈
- 问题:模型输出错误,没有及时纠正;
- 解决方案:使用反馈prompt,快速修复错误。
未来展望:prompt工程的下一个风口
随着AI技术的发展,prompt工程也在不断进化。未来,prompt工程的发展方向可能包括:
1. 自动prompt优化(Auto Prompt Engineering)
- 定义:用LLM生成prompt(比如用GPT-4生成prompt);
- 示例:“请帮我生成一个用于生成摘要的prompt,要求包含指令、上下文、输入、输出格式。”
2. 智能上下文管理(Intelligent Context Management)
- 定义:结合记忆网络(Memory Network),让模型自动管理上下文(比如记住用户的长期偏好);
- 示例:用户之前提到喜欢科幻小说,模型在生成推荐时,自动推荐科幻小说。
3. 跨模态prompt(Multimodal Prompt)
- 定义:使用文本+图像/音频的prompt(比如“请根据以下图像,写一段描述”);
- 示例:上传一张猫的图片,prompt是“请写一段关于这只猫的描述”,模型生成描述。
4. 结合RAG的prompt(Retrieval-Augmented Generation)
- 定义:先检索相关信息(比如从数据库中查询),再生成内容(比如“请根据以下检索到的信息,生成摘要”);
- 示例:生成关于“人工智能伦理”的文章时,先检索最新的研究论文,再生成内容。
总结:从“试错”到“系统”,做有逻辑的prompt设计者
提示工程不是“靠运气调prompt”,而是用科学的方法设计prompt。本文分享的10大技巧,从基础优化到高级引导,从上下文管理到错误纠正,覆盖了prompt工程的核心环节。
关键结论:
- 清晰的指令是提升prompt效果的基础;
- 思维链能让模型学会“思考”,解决复杂问题;
- 上下文管理能保持多轮对话的一致性;
- 反馈prompt能快速纠正模型的错误;
- 量化评估能帮助你选择更好的prompt。
最后一句话:
prompt工程的本质是“与模型沟通”——你越了解模型的工作原理,越能写出有效的prompt。希望本文能帮你从“prompt使用者”变成“prompt设计者”,解锁LLM的潜力!
参考资料
- 《Chain of Thought Prompting Elicits Reasoning in Large Language Models》(思维链论文);
- OpenAI Prompt Engineering Guide(OpenAI官方指南);
- Anthropic Claude Prompt Engineering Tips(Anthropic官方技巧);
- 《Prompt Engineering for Generative AI》(书籍);
- LangChain Documentation(LangChain文档)。
附录:prompt模板集合(GitHub)
本文中的所有prompt示例,都可以在我的GitHub仓库中找到:
https://github.com/your-username/prompt-engineering-templates
仓库包含:
- 基础优化prompt模板;
- 思维链prompt模板;
- 上下文管理prompt模板;
- 错误纠正prompt模板;
- 格式约束prompt模板。
欢迎Star和Fork!
更多推荐
所有评论(0)