LlamaIndex(九)Prompt提示词
LlamaIndex中的提示(Prompts)是控制大语言模型输出的关键工具。通过PromptTemplate和ChatPromptTemplate可以创建结构化提示,包含任务描述、输入文本和输出指示。提示词公式通常由角色、任务目标、背景等要素组成,能够限定模型回答范围和格式。文章展示了四种实例:1)基本问答模板应用;2)聊天式提示模板;3)简单笑话生成;4)带角色的上下文问答。这些方法能有效引导
在LlamaIndex中,提示(prompts)是与语言模型(LLM)交互的关键部分。通过自定义提示,可以更精确地控制模型的输出,以满足特定需求。
什么是prompts
在大语言模型(LLM)中,Prompt指的是模型生成内容时所需要的输入,它可以包含模型生成内容时所需要的背景知识、用户期望模型执行的指令、模型输出需要遵循的格式等。
为什么要用prompts
在我们平常使用大语言模型进行问答时,他回答的内容往往就是他默认的回答格式首先,然后,最后这种,例如想要让大语言模型回答时在开头添加固定开场白,或是结尾添加固定结束词,又或是让他只回答某一方面的问题,跟这个方面不相关的问题不回答等效果,就需要使用prompts来提示或者限制大语言模型的回答内容,特定的回答风格,或者是将大模型水平范围回答限制到垂直范围(回答内容准确性可能不高,高准确性使用外挂数据库更好).
提示词的组成

从图中可以看出,提示词主要由一个任务描述,一个输入文本,输出指示组成.他们会一同发送给大语言模型,而大语言模型就会根据提示词进行回答.
提示词公式=角色+角色技能+任务关键词+任务目标+任务背景+任务范围+任务结果判定+限制条件+输出格式+输出量
实例1
这段代码展示了如何使用LlamaIndex库构建 Prompt 模板。具体来说:
- 定义 Prompt 模板:通过
PromptTemplate和ChatPromptTemplate创建用于文本生成的提示词。 - 使用 Prompt 模板:通过
qa_template.format()和chat_template.format(topic=topic)插入上下文信息并生成相应的提示词字符串。 - 使用
qa_template.format_messages()和chat_template.format_messages(topic=topic)生成 ChatMessage 对象,模拟聊天场景。
from llama_index.core import PromptTemplate
template = (
"我提供以下上下文信息\n"
"-------------------\n"
"{context_str}\n"
"-------------------\n"
"给定这个信息,请回答问题:{query_str}\n"
)
qa_template = PromptTemplate(template=template)
# 文本生成场景
context_str = "在阳光明媚的春日午后,小明和小华相约在公园的樱花树下野餐。铺开格子布,摆上三明治和果汁,两人边吃边聊,笑声不断。樱花随风飘落,像粉色的雪花,落在他们的头上和食物上,增添了几分浪漫。小明突然提议玩一个猜谜游戏,小华兴奋地接受了挑战,两人的友谊在这场智力角逐中更加深厚。"
query_str = "谁提出玩游戏的?"
prompt = qa_template.format(context_str=context_str, query_str=query_str)
print(prompt)
我提供以下上下文信息 ------------------- 在阳光明媚的春日午后,小明和小华相约在公园的樱花树下野餐。铺开格子布,摆上三明治和果汁,两人边吃边聊,笑声不断。樱花随风飘落,像粉色的雪花,落在他们的头上和食物上,增添了几分浪漫。小明突然提议玩一个猜谜游戏,小华兴奋地接受了挑战,两人的友谊在这场智力角逐中更加深厚。 ------------------- 给定这个信息,请回答问题:谁提出玩游戏的?
message=qa_template.format_messages(context_str=context_str, query_str=query_str)
print(message)
[ChatMessage (role=, additional_kwargs={}, blocks=[TextBlock (block_type='text', text='我提供以下上下文信息\n-------------------\n 在阳光明媚的春日午后,小明和小华相约在公园的樱花树下野餐。铺开格子布,摆上三明治和果汁,两人边吃边聊,笑声不断。樱花随风飘落,像粉色的雪花,落在他们的头上和食物上,增添了几分浪漫。小明突然提议玩一个猜谜游戏,小华兴奋地接受了挑战,两人的友谊在这场智力角逐中更加深厚。\n-------------------\n 给定这个信息,请回答问题:谁提出玩游戏的?\n')])]
实例2
除了使用 PromptTemplate 外,类似的方法还可以创建 ChatPromptTemplate
from llama_index.core import ChatPromptTemplate
from llama_index.core.llms import ChatMessage,MessageRole
message_template=[
ChatMessage(content="你是一个说书人",role=MessageRole.SYSTEM),
ChatMessage(content="给我讲讲{topic}?",role=MessageRole.USER)
]
chat_template=ChatPromptTemplate(message_templates=message_template)
topic="三国演义的空城计"
# 用于文本生成
prompt=chat_template.format(topic=topic)
print(prompt)
print('----------')
# 用于聊天
message=chat_template.format_messages(topic=topic)
print(message)
system: 你是一个说书人 User: 给我讲讲三国演义的空城计? Assistant: ---------- [ChatMessage (role=, additional_kwargs={}, blocks=[TextBlock (block_type='text', text='你是一个说书人')]), ChatMessage (role=, additional_kwargs={}, blocks=[TextBlock (block_type='text', text='给我讲讲三国演义的空城计?')])]
实例3
from llama_index.core import PromptTemplate
prompt = PromptTemplate("写一个关于{topic}的笑话")
msg = prompt.format(topic="小明")
print(msg)
实例4
from llama_index.core import PromptTemplate
from llama_index.core.llms import ChatMessage, MessageRole
from llama_index.core import ChatPromptTemplate
chat_text_qa_msgs = [
ChatMessage(
role=MessageRole.SYSTEM,
content="你叫{name},你必须根据用户提供的上下文回答问题。",
),
ChatMessage(
role=MessageRole.USER,
content=(
"已知上下文:\n"
"{context}\n\n"
"问题:{question}"
)
),
]
text_qa_template = ChatPromptTemplate(chat_text_qa_msgs)
print(
text_qa_template.format(
name="瓜瓜",
context="这是一个测试",
question="这是什么"
)
)
更多推荐



所有评论(0)