文章介绍了提升大语言模型(LLM)应用效能的三项关键技术:提示链通过分解复杂任务提升准确性和安全性;响应净化确保输出安全符合伦理;结构化输出将响应格式化为预定义结构便于后续处理。这些技术能帮助构建更可靠、安全且可操作的AI系统,是构建高效LLM工作流和AI代理的基础。

近年来,GPT-4、Gemini等大型语言模型(LLMs)已成为许多AI驱动应用的核心。它们能回答问题、生成文本、提供建议,甚至辅助复杂的决策过程。但和任何先进工具一样,LLM需要精心管理才能确保输出可靠、安全且有用的结果。

本文将探讨使用LLM的三项关键技术:

  1. 提示链(Prompt Chaining)
  2. 响应净化(Response Sanitization)
  3. 结构化输出(Structured Outputs)

理解并结合这些技术,能提升AI系统的效能,使其更精准、可靠且易用。

基于LLM的工作流

什么是基于LLM的工作流?

基于LLM的工作流是一种分步流程,它利用Gemini、GPT-4或Claude等大型语言模型,以模块化可靠可控的方式执行任务。

它不是发送一个提示就获取完整答案,而是设计一条流程:

输入 → 推理 → 响应 → 验证 → 输出

为何重要?

当代理执行任务(如订票、答疑或知识检索)时,会在内部遵循工作流。因此,理解如何手动设计工作流能帮你洞察:

  • 代理如何规划任务
  • 代理如何决定下一步行动
  • 代理如何回应反馈

提示链:核心思想

概念:

提示链是一系列相互关联的提示,前一个提示的输出会成为后一个提示的输入。这模仿了人类解决问题的方式——将问题拆分成步骤。

这种技术能提升准确性、可解释性、安全性和灵活性

为何使用提示链?

  • 分解复杂任务:每个子任务更简单,准确率更高。
  • 促进推理:帮助LLM逐步思考(思维链提示法)。
  • 支持模块化设计:便于调试或复用流程中的部分环节。
  • 增强安全性:可对每个中间响应进行过滤、验证或净化。

代码详细解析

%pip install -qU langchain-google-genai
from dotenv import load_dotenv
import os
load_dotenv()
os.environ["GOOGLE_API_KEY"] = os.getenv("GEMINI_API_KEY")
from dotenv import load_dotenv
import os
load_dotenv()
os.environ["GOOGLE_API_KEY"] = os.getenv("GEMINI_API_KEY")
response = llm.invoke("What is the weather in Tokyo?")
print(response.content)

提示链 + 响应净化

n = input("Enter the question: ")
list_of_prompts = [
    n,
    f"Output the response '{n}' in a way that is safe for kids. Any bad response should be avoided."
]
  • 第一个提示 = 用户的原始输入。
  • 第二个提示 = 优化第一个提示的输出,增加安全约束
n = len(list_of_prompts)
for i, j in enumerate(list_of_prompts):
    print(f"Prompt {i}: {j}")
    llm_response = llm.invoke(j)
    print(llm_response.content)

🔹 遍历提示链。
🔹 为每个提示调用LLM,并打印中间响应。

注意:if i==n:的判断逻辑有误,因为循环会在i==n前结束(若要打印最终输出,可能需要if i==n-1)。

这展示了什么?

实际应用:

假设你在开发一个儿童AI导师,绝不能让它返回有害内容。

通过提示链,你可以:

  • 先让模型提供原始信息。
  • 净化或重新组织输出,使其适合目标受众(儿童)。

AI代理的基础:

代理系统通常依赖多步骤任务分解,例如:

规划要做什么。

搜索或检索知识。

总结结果。

验证输出。

响应用户。

这些步骤本质上都是通过提示链实现的。

示例工作流

可视化一个典型的链式工作流:

用户查询:"Tell me about war in history"
→ 步骤1:理解查询
→ 步骤2:检索历史事实
→ 步骤3:过滤暴力或不适合特定年龄的内容
→ 步骤4:简化为适合10岁儿童的表述
→ 最终响应:“很久以前,一些国家有过分歧,他们用不同的方式解决了这些问题……”

每个步骤都是一个提示。这就是提示链

提示链类似迷你代理行为

虽然代理具备记忆、工具、上下文感知等能力,但这种链式流程模仿了代理的推理过程,是构建完整代理的关键基础

掌握提示链是构建代理系统的必要前提,因为代理也依赖分步规划和执行。

响应净化:确保输出安全且符合伦理

什么是响应净化?

响应净化是对LLM的输出进行过滤或修改,确保其对目标受众而言适当、安全且符合伦理。这在教育医疗客服等领域尤为重要——不当或有害的响应可能造成严重后果。

为何重要?

在许多实际应用中,LLM可能生成不适当、冒犯性或误导性的响应。净化响应能确保其对用户安全相关,尤其是处理敏感话题时。

如何工作:

输入过滤:评估原始用户输入中是否有关键敏感词。

安全优先提示:生成最终响应前,提示LLM以更符合伦理或更适当的方式重写/过滤内容。

反馈循环:可通过额外的审核或反馈系统进一步评估响应。

示例:

假设儿童向LLM询问“战争”这类复杂话题,可使用响应净化——不让模型提供详细、血腥的解释,而是提示它以适合儿童的方式说明:

n = input("Enter the question: ")
list_of_prompts = [
    n,
    f"Output the response {n} in a way that is safe for kids learning any bad response should be avoided"
]
# 调用带净化功能的LLM
for i, j in enumerate(list_of_prompts):
    print(f"Prompt {i}: {j}")
    llm_response = llm.invoke(j)
    print(llm_response.content)
    if i == len(list_of_prompts) - 1:
        print("Final response: ", llm_response.content)

结构化输出:组织响应以提升清晰度和可操作性

什么是结构化输出?

结构化输出是将LLM的输出格式化为预定义结构(如JSON、Pydantic模型)的做法。这确保响应不仅是自由文本,还能用于下游任务,如数据分析报告生成决策制定

为何重要?

结构化输出让处理、分析和基于LLM生成的数据行动变得更简单。通过Pydantic或TypedDict等模型,可定义输出结构并施加约束,使其更可预测、更易用。

如何工作:

定义模型:确定响应的结构,如answer(答案)、rating(评分)、safety_rating(安全评分)等字段。

生成输出:LLM生成响应并按定义的结构格式化。

访问数据:结构化后,能更轻松地访问特定字段并将数据用于后续流程。

示例:

假设要生成一首关于印度的诗歌,同时包含质量评分安全评分(表明其符合预期的程度),操作如下:

from typing import Annotated
from pydantic import BaseModel, Field

class Response(BaseModel):
    "Answer to the question"
    answer: Annotated[str, Field(description="The answer to the question")]
    rating: Annotated[int, Field(description="The rating of the answer from 1 to 10")]
    safety_rating: Annotated[int, Field(
        description="The safety rating of the answer from 1 to 10 for kids, 10 being the safest"
    )]

structured_llm = llm.with_structured_output(Response)
response = structured_llm.invoke("Poem on India")
print(response.answer)
print(response.rating)
print(response.safety_rating)

这里,LLM会以结构化格式生成诗歌,包括答案、质量评分和确保适合所有受众的安全评分。

结论

构建基于LLM的应用时,确保AI系统可靠安全可操作至关重要。通过提示链、响应净化和结构化输出等技术,能打造更复杂的工作流,让LLM处理复杂任务、生成安全内容,并产出结构化、可操作的见解。

随着我们着手构建能自主交互、应对现实挑战的AI代理,这些基础技术将成为确保AI伦理且高效运行的基石

参考文献

https://medium.com/@danushidk507/ai-agents-ii-enhancing-llm-based-workflows-prompt-chaining-response-sanitization-and-3558cf97b462


如何系统学习掌握AI大模型?

AI大模型作为人工智能领域的重要技术突破,正成为推动各行各业创新和转型的关键力量。抓住AI大模型的风口,掌握AI大模型的知识和技能将变得越来越重要。

学习AI大模型是一个系统的过程,需要从基础开始,逐步深入到更高级的技术。

这里给大家精心整理了一份全面的AI大模型学习资源,包括:AI大模型全套学习路线图(从入门到实战)、精品AI大模型学习书籍手册、视频教程、实战学习、面试题等,资料免费分享

1. 成长路线图&学习规划

要学习一门新的技术,作为新手一定要先学习成长路线图方向不对,努力白费

这里,我们为新手和想要进一步提升的专业人士准备了一份详细的学习成长路线图和规划。可以说是最科学最系统的学习成长路线。

在这里插入图片描述

2. 大模型经典PDF书籍

书籍和学习文档资料是学习大模型过程中必不可少的,我们精选了一系列深入探讨大模型技术的书籍和学习文档,它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础(书籍含电子版PDF)

在这里插入图片描述

3. 大模型视频教程

对于很多自学或者没有基础的同学来说,书籍这些纯文字类的学习教材会觉得比较晦涩难以理解,因此,我们提供了丰富的大模型视频教程,以动态、形象的方式展示技术概念,帮助你更快、更轻松地掌握核心知识

在这里插入图片描述

4. 大模型行业报告

行业分析主要包括对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。

在这里插入图片描述

5. 大模型项目实战

学以致用 ,当你的理论知识积累到一定程度,就需要通过项目实战,在实际操作中检验和巩固你所学到的知识,同时为你找工作和职业发展打下坚实的基础。

在这里插入图片描述

6. 大模型面试题

面试不仅是技术的较量,更需要充分的准备。

在你已经掌握了大模型技术之后,就需要开始准备面试,我们将提供精心整理的大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

在这里插入图片描述

全套的AI大模型学习资源已经整理打包,有需要的小伙伴可以微信扫描下方CSDN官方认证二维码,免费领取【保证100%免费

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐