1、提示词要清晰、具体

1)简明扼要并不意味着简短;

2)使用分隔符:使用分隔符可以明确告诉模型你想要它处理提示的哪一部分,例如:

promote="""
请从“请帮我生成适用百度科技公司的优惠政策,并发送到邮箱youxiang@126.com”中提取出公司名称和接收邮箱
"""

其中“请帮我生成适用百度科技公司的优惠政策,并发送到邮箱youxiang@126.com”用双引号包裹起来。当然,可以是任何标点符号,只要它能让模型清楚地理解提示和文本之间的分隔。

3)少量的示例

我们提供了一个示例的输出结构,并要求模型生成新的文本,模仿所呈现示例的风格、文本语气等。

promote="""
你的任务是用连贯的方式回答。
<孩子>:教我什么是耐心。
<父亲>:雕刻最深山谷的河流,源自一个不起眼的泉水;最伟大的交响乐,源自一个音符;最复杂的挂毯,始于一根孤独的线。
<孩子>:教我什么是适应力
"""

2、给模型时间思考

当让模型执行复杂的任务时,可以指定完成任务的步骤,列出执行思路

promote="""
第一步:写一个两个人物的短篇故事。
第二步:把故事翻译成法语。
第三步:列出角色的名字。
..等,
"""

3、模型局限性

模型不知道它被训练的知识边界。因此,它可以生成可能实际上不真实的伪造响应。这被称为幻觉。 为了减少幻觉:请引用来源中的内容,然后要求模型基于源材料提供响应。

4、迭代式提示开发过程

我们有一个任务,我们向大型语言模型(LLM)提供一个初始提示。检查结果,然后迭代修改提示以获得所需的结果。例如:“生成一篇关于世界最佳总统的论文” -> “生成一篇关于世界最佳总统的论文,字数不超过50字” -> “生成一篇关于世界最佳总统的论文,字数不超过50字。限制候选人在总统制政府下当选”。对于复杂的任务,要想达到预期,就需要对提示词进行不断地修改和完善。

5、温度参数

温度(Temperature)是影响扩展过程中探索与响应多样性的重要参数。温度越高,模型选择可能性较小的响应的可能性就越大。这种多样性有助于生成具有更好创造力的多样化响应。

较低温度 -> 适用于需要可预测性和可靠性的任务。

较高温度 -> 适用于需要多样性的任务。

一般为了保证模型输出结果的稳定,将该值设置为0.1

6、三个角色

发送给LLM的消息有三个角色:

System:设置所发送消息的上下文的角色。例如,“你是一个数学助手机器人。你解释解数学方程的方法。”
Assistant: Assistant对应于生成与用户提示相对应的响应的LLM。
User:要发送到LLM的内容或提示在名为User的角色下发送。
 

参考文章:https://medium.com/@raghuram_12809/chat-gpt-prompt-engineering-for-developers-a-summary-of-course-by-deeplearning-ai-f39e55ef4eab

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐