AI大模型系列:Prompt提示工程常用技巧和实践(附教程)
Prompt提示语是使用大模型解决实际问题的最直接的方式,本篇介绍Prompt提示工程常用的技巧,包括Zero-Shot、Few-Shot、CoT思维链、Least-to-Most任务分解。
前言
Prompt提示语是使用大模型解决实际问题的最直接的方式,本篇介绍Prompt提示工程常用的技巧,包括Zero-Shot、Few-Shot、CoT思维链、Least-to-Most任务分解。
Prompt提示工程简述
Prompt提示语,指的是设计和编写提示文本,以引导模型生成符合特定要求的语言输出。Prompt能够帮助语言模型回忆起自己在预训练时学习到的东西,合适的Prompt对于提示学习的效果至关重要,因此产生了提示工程专门研究如何设计Prompt,目的是找到最优的提示语,使得模型的性能和效率达到最高,以适应不同的任务和应用场景。

对各种模型设计不同的Prompt
Prompt的一般结构介绍
Prompt的一般结构包含4个部分,任务指令、背景信息、附加内容、输出要求
- 任务指令:明确给到大模型需要执行的任务,比如扮演角色身份,给出内容方案
- 背景信息:提供任务和上下文背景,从而生成更相关的输出
- 附加内容:额外补充信息,包括领域知识库,参考样例等等
- 输出要求:指定输出的格式,比如JSON格式,限定输出在某几个选项内,限制不允许编造成分等等
Prompt中并非要包含以上所有部分,可以根据需要自行组合搭配。举个例子,需要让大模型输出一个去苏州旅游的攻略,Prompt结构如下

Prompt结构式例
零样本提示Zero-Shot
零样本提示Zero-Shot,是指没有任何相关数据的参照下,直接对模型进行提问,用自然语言指令让模型输出内容完成一个任务,例如用通过对话模型生成式地完成情感分类任务

通过Zero-Shot进行情感分类
再例如完成命名实体识别的任务,提取出文本中的关键要素,从提取结果来看完全正确且没有遗漏,但是格式并没有按照要求的JSON来

Zero-Shot完成命名实体识别
Zero-Shot这种方式最为方便,但是由于没有任何相关数据给到模型参照,所以模型可能难以彻底按照任务要求和输出要求进行文本生成,尤其是对于难以用自然语言来描述清楚的任务。
少样本提示Few-Shot
少样本提示Few-Shot是指,在用自然语言描述的任务中加入少量相关的任务例子,使得模型更加充分地理解任务的目标和输出要求,增加任务完成的准确性,还是以情感分类为例,对模型进行Few-Shot如下

通过Few-Shot进行情感分类
同理针对命名实体识别,也可以给到一些例子,Few-Shot如下

Few-Shot完成命名实体识别提问
模型生成内容如下,模型提取得非常准确,并且模型参照了给的例子进行了JSON格式的输出,而在Zero-Shot中并虽然提示语句中要求了JSON格式,但并没有按照JSON生成,由此可推测Few-Shot下模型会更容易地参照用户的需求进行文本生成

Few-Shot完成命名实体识别结果
特别的,当给到的参考例子只有一条时,此时属于One-Shot提示。
思维链提示CoT
思维链提示(Chain-of-Thought,CoT),常用于推理规划类问题,包括逻辑推理,数学推理,常识推理等,相比于语言语境能力,推理问题对于大语言模型而言更难,因为对于推理问题,大模型的训练是把推理结果作为下一个词直接预测,而忽略了中间的思考过程,而人类在面对推理问题时往往是逐步求解,最后得到任务的答案。思维链提示的目的就是让明确告诉模型先输出中间过程,再逐步运算生成答案。
以一个简单的数学题问大模型(Chatglm2-6B),让模型计算出最后的结果,采用直接提问的方式,问题和回答如下

直接提问推理问题
很明显,模型回答的是错误的,正确答案应该是11,我们采用思维链提示的方式再试一次,具体是给到模型一条类似的题目,并且告诉模型解题步骤,解题步骤包括中间过程和最终的结果,使得对该类问题模型采用这种逐步的思考方式进行回答,提问和回答如下

思维链的方式提问推理问题
显然模型回答正确,且逻辑清晰,中间过程和结果都回答得很好。
除了给到参考解题例子之外,研究人员提出零样本思维链提示,只需要在问题结尾加上**”让我们逐步思考“**这个魔法语句,模型就能够实现逐步推理,我们以这种方式进行提问试验一下

零样本思维链提示回答推理问题
同样得到了正确的结果,显然思维链提示CoT对于推理问题比直接提问更有效。
任务分解Least-to-Most
任务分解,也被叫作由少到多提示(Least-to-Most),旨在当面对复杂提问时,将其转化为多个容易解决的子问题,并逐一解决它们得到最后的结果。任务分解的方式和思维链类似,区别在于任务分解会进行多轮问答,并且之前子问题的回答会加入到下一次的提问中,相当于逐步填充问题的上下文,降低复杂多步推理问题的难度。
我们同样先做对比,对模型直接提问一个计算题,问题和回答如下

直接对模型提问复杂问题
很明显答案错误,正确答案应该是5桶。下面我们采用任务分解的形式,首先提问模型解决这个问题需要先完成哪个子问题

回答子问题是什么
模型说了一大堆,第一句话就已经回答出了子问题,即要先解决购物劵总额的问题,我们将这个问题加入到原始提问中,让模型先回答出这个子问题的答案

回答子问题的答案
子问题回答正确,购物劵总额是500元,下一步就可以直通最终问题了,我们将子问题和子问题的答案拼接到原始提问上,形成最终的Prompt

最终模型回答为5桶,回答正确,且模型回答的逻辑清晰完美,印证了任务分解这种方式能够提高对复杂问题的推理准确性,全文完毕。
如何系统的去学习大模型LLM ?
大模型时代,火爆出圈的LLM大模型让程序员们开始重新评估自己的本领。 “AI会取代那些行业?”“谁的饭碗又将不保了?”等问题热议不断。
事实上,抢你饭碗的不是AI,而是会利用AI的人。
继科大讯飞、阿里、华为等巨头公司发布AI产品后,很多中小企业也陆续进场!超高年薪,挖掘AI大模型人才! 如今大厂老板们,也更倾向于会AI的人,普通程序员,还有应对的机会吗?
与其焦虑……
不如成为「掌握AI工具的技术人」,毕竟AI时代,谁先尝试,谁就能占得先机!
但是LLM相关的内容很多,现在网上的老课程老教材关于LLM又太少。所以现在小白入门就只能靠自学,学习成本和门槛很高。
针对所有自学遇到困难的同学们,我帮大家系统梳理大模型学习脉络,将这份 LLM大模型资料 分享出来:包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

一、LLM大模型经典书籍
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。

二、640套LLM大模型报告合集
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)

三、LLM大模型系列视频教程

四、LLM大模型开源教程(LLaLA/Meta/chatglm/chatgpt)

LLM大模型学习路线 ↓
阶段1:AI大模型时代的基础理解
-
目标:了解AI大模型的基本概念、发展历程和核心原理。
-
内容:
- L1.1 人工智能简述与大模型起源
- L1.2 大模型与通用人工智能
- L1.3 GPT模型的发展历程
- L1.4 模型工程
- L1.4.1 知识大模型
- L1.4.2 生产大模型
- L1.4.3 模型工程方法论
- L1.4.4 模型工程实践
- L1.5 GPT应用案例
阶段2:AI大模型API应用开发工程
-
目标:掌握AI大模型API的使用和开发,以及相关的编程技能。
-
内容:
- L2.1 API接口
- L2.1.1 OpenAI API接口
- L2.1.2 Python接口接入
- L2.1.3 BOT工具类框架
- L2.1.4 代码示例
- L2.2 Prompt框架
- L2.3 流水线工程
- L2.4 总结与展望
阶段3:AI大模型应用架构实践
-
目标:深入理解AI大模型的应用架构,并能够进行私有化部署。
-
内容:
- L3.1 Agent模型框架
- L3.2 MetaGPT
- L3.3 ChatGLM
- L3.4 LLAMA
- L3.5 其他大模型介绍
阶段4:AI大模型私有化部署
-
目标:掌握多种AI大模型的私有化部署,包括多模态和特定领域模型。
-
内容:
- L4.1 模型私有化部署概述
- L4.2 模型私有化部署的关键技术
- L4.3 模型私有化部署的实施步骤
- L4.4 模型私有化部署的应用场景
这份 LLM大模型资料 包括LLM大模型书籍、640套大模型行业报告、LLM大模型学习视频、LLM大模型学习路线、开源大模型学习教程等, 😝有需要的小伙伴,可以 扫描下方二维码领取🆓↓↓↓

AI大模型系列:Prompt提示工程常用技巧和实践(附教程)
更多推荐
所有评论(0)