问:大模型的核心是提示词吗?
答:是的,因为文本模型的输入输出只能是文字。Agent的所有的输入输出,本质是特殊处理的文本。可以理解每次对话都是给模型输入的特殊处理的提示词

理解这个问题前,我们想看大模型工作的原理

模型的工作逻辑

我们先来看三个都个东西:

  • 模型如何生成长文本
  • 模型如何回答问题
  • 模型如何拥有记忆
  1. 模型如何生成长文本

既:通过自回归计算,把输出的内容不断的拼接当作新的内容,直到模型不输特定符号为止。既生成了长文本。

2、模型如何回答问题

这个很好理解,就是就是把问题当作输出,然后单词接龙,让模型生成长文本,自回归计算直到给出答案

模型如何形成记忆:

也很简单,把用户之前的对话和模型回复,加上新的问题当作输入,然后自回归计算给出输出

Agent和提示词的关系

Agent的解释

Agent:智能代理,是指能够自主感知环境、做出决策并采取行动的计算实体。
偏官方的解释:Agent具备能够感知环境、进行计划、决策和执行动作的能力。Agen在对话、执行任务、推理展现一定程度的自主性。简而言之,Agent是一个具有复杂推理能力、记忆和执行任务手段的系统。

Agent部分组成:

  1. 规划(Planning):负责拆解复杂任务为可执行的子任务,并评估执行策略。
  2. 记忆(Memory):短期记忆和长期记忆,分别用于存储会话上下文和用户特征、业务数据等。
  3. 工具(Tools):Agent感知环境、执行决策的辅助手段,如API调用、插件扩展等。
  4. 行动(Action):Agent将规划与记忆转化为具体输出的过程,包括与外部环境的互动或工具调用。

是否很抽象?其实理解起立很简单。就是提示词的处理

提示词是如何驱动Agent的

用一个通俗的解释理解

智能体 = 驱动模型的提示词(规划) + 拼接上下文的提示词(记忆) + 如何调用工具的提示词(行动)

看一个模型的对话示例,本质是在每次和模型的输入输出中,包含对应的提示词内容

整个智能体的全部,都在每次和模型的对话中,将全部内容形成提示词,从而实现Agent的推动。

整个过程都是由上下文的串联从而形成的。

通常一次回话中,所有的输入输出包含了智能体的四要素:

  • 规划:整体指导模型的思考逻辑,如何反思,拆解字任务的逻辑
  • 记忆
    • 长期记忆:历史的会话等
    • 短期记忆:本次会话的上下文对话内容。每次单论对话都要补充
  • 行动/回复:模型按照要求输出的内容格式。部分通过解析从而获得。

以上便是提示词在Agent中如何工作的全部。

持续更新中,欢迎关注


打个广告

Injob AI|用数据 + Agent 重构人才市场
👩‍💻 Injob AI 是什么?
👉 点击链接体验:https://injob.scenifyai.com/

Injob AI 是一款面向求职者的模拟面试产品,以 “数据 + Agent 协同” 为核心,对个人能力实现更准确的评定,致力于重构人才市场的底层逻辑。

🌟 核心优势
-沉淀稀缺的 岗位考核点数据库
-结合 多Agent 仿真面试流程
-形成 动态评估闭环,让能力不再停留在“简历描述”里,而是转化为真实可验证的职业资产。
🎯 用户价值:职业竞争力量子跃迁基地
 → 高度仿真的面试训练场,提前感受大厂面试场景
 → 零成本试错,精准复盘,快速提升认知与能力
 → 生成 可验证、可流通的能力凭证,让努力被看见

非常感谢!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐