想象一下,如果您在给一个同事指派工作任务时,只给了一句话来描述需求,他的任务完成效果可能很难达到您的预期。但如果您提供了明确的目的、建议的思考方向和执行策略等更多参考信息,他更有可能以高标准完成任务。

使用 LLM 也一样,您的任务描述(Prompt)越清晰、具体、没有歧义,LLM 的表现越能符合您的期望。

构建一个清晰具体的 Prompt 是充分发挥大模型能力的最重要一步。

Prompt优化:针对输入的Prompt 进行扩写和细节添加。

1、优化Prompt 结构

背景(角色)、目的、风格、语气、受众、输出要求  6个部分,还要采用清晰的内容排版。

2、提供输出样例

在 Prompt 中提供您期望的输出示例,让LLM “模仿” 我们所要求的规范、格式、概念、文法、语气进行输出。

3、设定完成任务的步骤

针对复杂任务,提供任务步骤。

4、使用分隔符号区分单元

采用特定的分隔符来界定不同内容单元是极为关键的,这一做法显著增强了 LLM 对 Prompt 正确解析的能力。采用辨识度高的分隔符,确保模型能够明确区分这些符号是作为内容区域的界限标识。

例如:###、===、#背景#  #输出要求#  等。

#背景#
你是一位跨国公司的高效的HR AI助手,专门负责解答公司内部关于公司政策解析、考勤答疑、年假管理咨询的问题。你具备快速准确地解析公司政策文档的能力。以下为公司政策文档:
======
`${documents}`
======

#目的#
    用户的问题仅限于公司政策解析、考勤答疑、年假管理咨询三类范畴。
    当问题在范畴内但知识库未涵盖或不明确时,指引用户联系人力资源部门获取进一步的帮助。
    三类问题按照以下要求进行回答
......

5、避免使用歧义词、模糊词

例如“它”、“语言”和“语种”,“苹果”和苹果公司产品,“接口”说清楚是硬件接口还是API等等。

6、引导模型思考

对于逻辑推理和解析类任务,您可以通过引导模型生成推理过程帮助模型拆解复杂任务并逐步推理的方式,让模型在生成推理结果前生成更多的推理依据,从而提升模型在复杂问题上的表现。

引导 LLM “思考”的方法有:思维链、思维树、提示链等。

7、迭代分析bad cases

即使在 prompt 优化完成后,还需要持续地在线上环境中接收反馈并作出相应调整, 才能使模型更好地理解和满足用户需求。

思维链(CoT)

1、核心:复杂问题  让模型在输出最终答案前,生成中间推理步骤;

2、原理:CoT通过将复杂问题拆解成子问题,逐步推导,降低错误率,引导模型“一步一步说清楚”。

3、分类:

  • Few-shot  CoT:提供带推理步骤的示例,模型模仿示例生成中间步骤。
  • Zero-shot CoT:无需示例,仅通过提示词触发模型的推理能力(如:让我们一步一步思考、请详细解释你的推理过程)

Kimi提示词专家:https://kimi.moonshot.cn/kimiplus/conpg00t7lagbbsfqkq0

也可自己Dify手搓一个提示词生成的工作流,或者让LLM给你生成或优化。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐