我想很多朋友都尝试过自己使用AI去写一些东西,比如写一篇小说,或者写一篇特定领域的研究报告。但是不知道大家有没有遇到过这样的问题:AI虽然可以生成一长串的文本,但是文本质量却不尽人意。如让AI生成一篇小说,AI往往写到一半就会忘记之前有什么情节,把写死的人物再写活。或者在写一篇调查报告的时候让AI再去补充一些事实,AI为了完成任务往往会自己胡编乱造。

我想很多朋友在遇到这个问题的时候就会非常头疼,一些没有太多Prompt engineer 和 Context engineer经验的朋友就会选择放弃。但是一个好的产品就是要降低人们的使用门槛,让人们快速上手,那有没有办法去解决这个问题,让一些AI小白也可以快速的享受AI带来的生产力提升呢?

我想Agent可以解决这个问题。

1.单个AI和工作流的局限

1.1 知识深度不足

首先,LLM 并不是一个真正意义上的“专家”。它更像是一个 读过很多书、但没有真正研究过某个领域的人。在很多简单问题上,它可以回答得非常流畅。但一旦进入某些需要深度知识的领域,例如:

  • 写一篇金融行业研究报告

  • 写一篇严谨的技术架构分析

  • 写一篇具有复杂情节的小说

模型往往会出现一个典型问题:

表面看起来很专业,细节却经不起推敲

当 AI 不知道某个事实的时候,它不会说“我不知道”,而是会尝试生成一个看起来合理的答案。这就是我们常说的 幻觉(Hallucination)

因此,当我们让 AI 去补充资料、增加事实的时候,它有时候并不是去“查找信息”,而是会:

自己编一个

1.2 上下文窗口的限制

另一个非常现实的问题是:

AI 的记忆是有限的

虽然现在的模型已经拥有很大的 Context Window,但对于复杂任务来说,依然是远远不够的。

举个简单的例子,如果我们要写一篇长篇小说,AI 需要记住的信息可能包括:

  • 人物关系

  • 人物设定

  • 已经发生的剧情

  • 世界观设定

  • 埋下的伏笔

当文本越来越长时,这些信息就会逐渐被新的内容“挤出”上下文窗口。

于是就会出现我们熟悉的场景:

  • 已经死亡的角色突然复活

  • 人物性格突然改变

  • 剧情逻辑前后矛盾

并不是 AI 故意这么写,而是 它已经“忘记”之前发生了什么


1.3 长任务能力不足

如果我们仔细观察人类写作的过程,其实很少有人会直接一口气写完一篇完整文章。

一个比较常见的流程是:

查资料 → 做大纲 → 写初稿 → 修改 → 再修改

写小说也是类似:

构思世界观 → 设计人物 → 规划剧情 → 写章节 → 调整情节

而单个 AI 在大多数情况下的工作方式却是:

直接生成

也就是说,它通常不会主动去:

  • 规划结构

  • 检查逻辑

  • 回头修改

这就导致生成的文本虽然“流畅”,但整体质量往往不高。


1.4 工作流的局限

有些朋友在遇到这些问题之后,会尝试用一种更工程化的方法去解决,比如设计一个简单的 AI 工作流。

例如:

生成大纲 → 根据大纲写内容 → 再进行润色

这种方式确实会比单次生成好很多,但在实际使用中仍然会遇到一些问题。

首先,大多数工作流其实是 固定流程

一旦流程设计好,AI 就只能按照预先设定的步骤执行。

但现实中的写作往往是非常动态的。例如:

  • 写到一半发现资料不够

  • 某个论点需要补充更多证据

  • 某个剧情需要重新调整

这时候,一个固定的工作流往往就显得有些僵硬。

其次,很多工作流依然存在一个问题:

所有步骤都依赖同一段上下文

随着任务进行,上下文会越来越长,信息也越来越混乱。AI 在处理这些信息时,很容易再次出现:

  • 遗漏关键信息

  • 重复内容

  • 前后不一致


因此,无论是 单个 AI 直接生成,还是 简单的 AI 工作流,在面对复杂、长周期的内容生成任务时,都会逐渐暴露出它们的局限。

这也是为什么越来越多的开发者开始思考一个问题:

有没有一种方式,让 AI 像一个团队一样协作工作?

而这正是 Agent 系统 想要解决的问题。

2.为什么agent可以解决这个问题

前面我们提到,无论是直接使用一个 AI 生成内容,还是设计一个简单的工作流,在面对复杂任务时都会逐渐暴露出一些问题。例如:

  • 上下文逐渐混乱

  • 内容前后不一致

  • 缺乏事实来源

  • 任务流程过于僵硬

这些问题的背后其实有一个共同原因:

我们一直在把 AI 当作一个“单独工作的写作者”

但如果我们仔细想一想,人类在完成复杂任务时,其实很少是一个人从头到尾完成所有工作。

例如写一篇研究报告,往往会有:

  • 研究人员负责查资料

  • 作者负责整理和写作

  • 编辑负责修改和润色

  • 审稿人负责检查逻辑和事实

也就是说,这其实是一个 多人协作的过程

Agent 的核心思想,就是让 AI 也能够以类似的方式协作工作。


2.1 Agent 可以拆分复杂任务

Agent 系统通常不会直接去完成一个巨大任务,而是先进行 任务拆解

例如,当用户提出这样一个需求:

写一篇关于 Agent 架构的技术博客

Agent 系统可能会先做这样一件事:

先生成文章结构

例如:

1. 单个 LLM 的局限
2. Workflow 的局限
3. Agent 的基本概念
4. Agent 系统架构
5. 实际应用案例

接下来,再针对每一个部分分别进行处理。

这样做有一个非常明显的好处:

把一个复杂问题拆成多个小问题

每一步的任务都更加明确,也更容易得到高质量的结果。


2.2 Agent 可以调用工具获取信息

在传统的 AI 使用方式中,模型通常只能依赖两种信息来源:

  • 训练时学到的知识

  • Prompt 中提供的内容

如果这些信息不够,模型就很容易开始“猜”。

而 Agent 则可以通过 调用工具 来获取信息。例如:

  • 搜索引擎

  • 知识库(RAG)

  • 数据库

  • 外部 API

当模型发现自己缺少某些信息时,它可以:

先去查资料

再根据资料生成内容。

这样生成的文本往往会更加可靠,也更接近真实世界的信息。


2.3 多个 Agent 的分工协作

在很多 Agent 系统中,不同的 Agent 会承担不同的角色。

例如在一个写作系统中,可以存在这样几种 Agent:

Research Agent    负责查找资料
Writer Agent      负责写作
Reviewer Agent    负责检查逻辑
Editor Agent      负责语言润色

每个 Agent 都有自己的职责。

这种分工带来的好处是:

每个 Agent 只需要专注做好一件事

而不是让一个模型同时承担所有任务。

这在实践中往往可以明显提升内容质量。


2.4 独立的上下文和记忆

另一个非常重要的特点是,Agent 系统通常会为不同的任务维护 独立的上下文和记忆(Memory)

例如:

  • Research Agent 只需要关注资料

  • Writer Agent 只需要关注文章结构和内容

  • Reviewer Agent 只需要关注逻辑和事实

这样可以避免一个常见的问题:

上下文越来越大,信息越来越混乱

通过对信息进行分层管理,Agent 系统可以在长任务中保持更稳定的表现。


2.5 允许多轮修改和反思

在单次生成的模式下,AI 往往只有一次机会生成内容。

而 Agent 系统通常会引入一种非常重要的机制:

生成 → 检查 → 修改

例如:

  1. Writer Agent 先生成一段内容

  2. Reviewer Agent 检查是否存在逻辑问题

  3. 如果有问题,再返回给 Writer Agent 进行修改

这种模式有点类似于人类团队中的 审稿流程

通过多轮迭代,文本质量往往可以不断提升。


2.6 从“工具”变成“系统”

从更宏观的角度来看,Agent 带来的变化其实是:

AI 从一个单独的工具,变成了一个系统

单个 AI 更像是一个写作者。

而 Agent 系统更像是一个 小型编辑部

  • 有人负责研究

  • 有人负责写作

  • 有人负责审核

  • 有人负责修改

每个人各司其职,共同完成任务。

所以当我们希望 AI 去完成一些 复杂、长周期、高质量 的任务时,Agent 往往会比单个模型或者简单的工作流更加合适。


通过构建Agent,我们不仅能让AI在内容生成的任务上表现得更加出色,还可以降低普通用户的使用门槛,让AI的能力不再变得那么昂贵,让AI应用真的可以被广泛的推广,让每个人都享受AI带来的生产力变革!


这个文章是我新开的专栏构建企业级Agent系统的第一篇,我将结合这一年多以来构建Agent的一些实践和经验教训,帮助大家对agent有更全面的理解。接下来我还会更新RAG篇,memory篇,文件系统篇,多模态篇,内容安全篇和Agent系统如何撑起大量用户篇,所有的经验都来自于我目前主导的已经落地并且商业化的agent系统。如果感兴趣可以点个赞。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐