从零开始:使用LangGraph构建DeepResearch“大模型幻觉克星“多智能体系统!
本文系统介绍了DeepResearch技术,阐述其通过大规模检索与流程编排解决大模型幻觉和长文本生成的核心机制,解析了三大能力维度和四种主流架构模式,梳理了科技巨头技术路线及面临的挑战,为后续实战构建DeepResearch系统奠定理论基础。
一、新一代信息检索增强工具DeepResearch
1.1 DeepResearch简介
经常使用大语言模型的用户总会遇到大模型知识库更新不及时、生成长文本效果不佳的问题。为解决这些问题,2025年2月,OpenAI 在 ChatGPT 中开发了名为 DeepResearch 的在线服务功能。该功能一经发布便迅速走红。用户普遍认为,DeepResearch 能在多个网站上执行知识检索与交叉验证,显著增强了信息的确定性,并具备生成长篇幅、高质量、高置信度文本内容的能力。在 OpenAI 的官方演示中,ChatGPT 借助 DeepResearch 一次性输出了超过一万字的技术报告,震惊世界。随着功能迭代,DeepResearch 也不断发展,逐步加入了图片生成与多类型文档编写等能力。
DeepResearch功能的核心能力如下:
-
更大规模检索
通过广泛联网搜索获取更准确、更全面的知识,有效扩展模型的知识边界,抑制幻觉产生;
-
超长文本编写
能够一次性输出结构完整、内容连贯的长篇文档,极大提升了实用效率。
DeepResearch实现以上两项核心能力的思想也非常明确:使用大规模的知识检索工具对网页和本地数据核验后进行检索,同时依托完整流程编排将检索后的数据进行多轮修正和拼接后,引导大语言模型完成长文档的编写。基于此DeepResearch也被赋予了一个响亮的名字:信息检索增强。(大家可以类比为知识库RAG检索增强生成)。
1.2 DeepResearch明星项目
随着 DeepResearch 的迅速走红,其设计理念与强大功能吸引了众多企业与开源组织的关注与跟进,涌现出一批优秀的开源实现。下面为大家介绍几个具有代表性的 DeepResearch 明星项目:
1.2.1 LangChainAI open_deep_researcher
open_deep_researcher
是由 LangChain AI 团队推出的开源深度研究智能体项目,旨在复现并扩展 DeepResearch 的核心能力,使开发者无需付费即可借助 AI 自动化完成深度信息调研与报告撰写。
用户只需输入一个研究主题或问题,该智能体便会自动生成搜索查询,抓取并总结网页内容,识别知识盲区并持续补充检索,最终输出结构清晰的 Markdown 研究报告。其开源地址为:https://github.com/langchain-ai/open_deep_research
1.2.2 谷歌Gemini Fullstack LangGraph Quickstart
Gemini Fullstack LangGraph Quickstart
(也被称为深度研究增强型对话式 AI 系统)是 Google 于 2025 年 6 月开源的全栈 AI Agent 模板项目。该项目深度融合了 Google 的大语言模型 Gemini 2.5 系列与开源的 LangGraph 框架,展示如何构建一个具备深度研究能力的对话式 AI 系统。
在该系统中,后端基于 LangGraph 编排的智能 Agent 能够对用户查询执行深度资料检索:自动生成搜索关键词、调用 Google 搜索获取信息、分析结果并识别知识空白,通过多轮迭代检索,最终生成带有引用来源的可靠答案。前端则提供了友好的 React 网页界面,方便用户与 Agent 进行自然对话交互。其开源地址为: https://github.com/google-gemini/gemini-fullstack-langgraph-quickstart
1.2.3 字节跳动DeerFlow
DeerFlow
(全称 Deep Exploration and Efficient Research Flow)是字节跳动于 2025 年 5 月开源的多智能体深度研究框架,基于 LangStack 构建。该项目致力于自动化复杂的研究流程,通过协调器、规划器、研究员、编码员和报告员等多个智能体的分工协作,自动完成网络搜索、信息抓取、数据分析乃至代码执行等任务,并最终输出图文报告、PPT 或播客音频等多模态内容。
其特色在于支持“人在回路”机制,允许用户通过自然语言实时干预研究计划。DeerFlow 适用于学术研究、市场调研、内容创作及企业数据分析等多种需要深度信息处理的场景,显著提升了研究与内容生产的自动化水平与效率。其开源地址为:https://github.com/bytedance/deer-flow
二、主流DeepResearch系统介绍
论文《A Comprehensive Survey of Deep Research: Systems, Methodologies, and Applications》梳理了OpenAI、Google、Microsoft、Meta、Anthropic 等主流科技公司对 DeepResearch 系统的技术构想与实践路径。本章节将基于该论文,介绍DeepResearch的核心维度和流行架构:
2.1 DeepResearch的三个核心维度
该论文将DeepResearch能力抽象为以下三个核心维度:
维度 | 含义 | 论文要点 |
---|---|---|
认知-推理 (Cognitive Reasoning) | 以 LLM 作为思考引擎,具备自主规划、链式推理与反思。 | 系统需能把复杂研究任务拆分为子目标,自主调用工具再综合结论。 |
工具集成 (Tool Integration) | 无缝调用搜索 / 数据库 / 代码执行等外部工具。 | 强调“可插拔工具层”,并提出超过 80 个商用,开源实现对比。 |
流程自动化 (Workflow Automation) | 端到端覆盖检索、阅读、实验、写作、迭代。 | 区分于只包一层 prompt 的“单点 LLM 应用”。 |
论文明确指出,只有同时具备大于等于2个维度且以大模型为核心推理单元的系统才称得上DeepResearch系统。
2.2 主流DeepResearch类架构模式
2.2.1 Pipeline-Agent (顺序管线)
一种直观的架构模式: 大模型按顺序执行各个步骤,先将任务拆解并扩展为多个子问题,接着对每个问题进行检索,提取检索结果中的关键信息并合并,最后统一输入到大语言模型中进行长文档的编写。我们后续从0到1代码实现 DeepResearch 应用也将采用这种模式。
该架构的特点是大模型分段调用,依次完成搜索->读取->汇总,代表产品有Perolexity
,PubMed GPT
。
2.2.2 Planner/Executor-Agent (层级管线)
一种Multi多智能体架构。顶层由一个作为 Planner 的大模型智能体构成任务树,下层由多个执行不同任务的子智能体作为 Executor。
此架构中,Planner是整个系统里的监督者角色,所有Executor子智能体的进展都会向Planner汇报沟通,Planner负责监控各智能体的运行状态,并最终汇总所有智能体的执行结果。代表产品有:OpenAI DeepResearch
, Microsoft AutoGen
。
2.2.3 Cooperative Multi-Agent (合作管线)
一种交互式架构,所有智能体之间都可以直接交互,不同智能体的输出由评价模型进行验证和比较,通过多智能体间的协作提升研究深度。代表性产品包括:Anthropic Team-Agent 原型
和 Google Gemini “Science Agents” 实验项目
。
2.2.4 Memory-Centric (知识图谱架构)
一种知识图谱架构,该架构将网络检索与内部混合检索的结果及过程记忆统一写入向量库与图存储系统中,支持 “全局关联”和“持续研究”模式,从而提升知识的全面性与准确性。
2.3 巨头公司DeepResearch类的应用及侧重点
不同的公司对DeepResearch应用理解也有侧重点,下表总结了主要科技公司的技术路线与关注重点:
公司 | 对应产品 / 原型 | 技术要点 | Deep Research 侧重点 |
---|---|---|---|
OpenAI | GPT + “DeepResearch” 功能位 (文中列为商业样例) | 128 k 上下文 + Retrieval-Augmented Generation;函数调用触发链式工具。 | 认知-推理 + 工具集成 :LLM 作为“研究总管”,外呼 Papers with Code、ArXiv API、代码解释器。 |
Gemini DeepResearch | 1 M token 长上下文、循环检索-写作;Notebook-Agent 协同。 | 极长上下文 + 自动摘要/对比实验 。 | |
Microsoft | Copilot + AutoGen Stack | Planner-Executor 多 Agent;Neo4j Graph-RAG;Office 文档写作链。 | 流程自动化 :把文献检索→Excel 统计→Word 报告串成 Workflow。 |
Meta (FAIR) | LlamaCode Research Companion | Llama + Code Interpreter + PaperQA。 | 开源路线 :私有知识库 + 本地 RAG。 |
Anthropic | Claude “Research Assistant” 模式 | 200 k context;Constitutional self-critique;搜索-批注-写长文。 | 安全对齐 + 长文写作 。 |
2.4 DeepResearch 的价值与挑战
总体而言,DeepResearch 类应用在以下方向为我们提供了重要价值,同时也面临相应挑战:
方向 | 巨头共识 | 挑战 |
---|---|---|
超长上下文 + 批判性检索 | 利用 128 k–1 M 窗口直接“整卷”阅读论文集;多轮自提问、自验证。 | 成本 & 速度;Token-泄漏风险;引用准确率。 |
Hybrid-RAG-2.0 | Web + 私库 + 结构化数据库多通路检索,向量 + 关键字 + 图融合。 | 检索质量评估标准;新旧版本冲突;跨语种融合。 |
自反馈-自改进 (RLAIF) | 让 Agent 生成多版推理链,自动打分择优。 | 反馈信号设计;防止模式坍缩。 |
安全对齐 & 审计 | 引入责任链日志(Tool 调用、引用来源、判例比对)。 | 大规模日志存储成本;隐私合规;解释性欠缺。 |
多模态科研 (代码、图表、实验仪数据) | Gemini、GPT-4o 开始支持数学推导、图片解析、代码执行。 | 上下文融合策略;推理稳定性。 |
三、如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。
我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在人工智能学习中的很多困惑,所以在工作繁忙的情况下还是坚持各种整理和分享。但苦于知识传播途径有限,很多互联网行业朋友无法获得正确的资料得到学习提升,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。
一直在更新,更多的大模型学习和面试资料已经上传带到CSDN的官方了,有需要的朋友可以扫描下方二维码免费领取【保证100%免费】👇👇
01.大模型风口已至:月薪30K+的AI岗正在批量诞生
2025年大模型应用呈现爆发式增长,根据工信部最新数据:
国内大模型相关岗位缺口达47万
初级工程师平均薪资28K(数据来源:BOSS直聘报告)
70%企业存在"能用模型不会调优"的痛点
真实案例:某二本机械专业学员,通过4个月系统学习,成功拿到某AI医疗公司大模型优化岗offer,薪资直接翻3倍!
02.大模型 AI 学习和面试资料
1️⃣ 提示词工程:把ChatGPT从玩具变成生产工具
2️⃣ RAG系统:让大模型精准输出行业知识
3️⃣ 智能体开发:用AutoGPT打造24小时数字员工
📦熬了三个大夜整理的《AI进化工具包》送你:
✔️ 大厂内部LLM落地手册(含58个真实案例)
✔️ 提示词设计模板库(覆盖12大应用场景)
✔️ 私藏学习路径图(0基础到项目实战仅需90天)
第一阶段(10天):初阶应用
该阶段让大家对大模型 AI有一个最前沿的认识,对大模型 AI 的理解超过 95% 的人,可以在相关讨论时发表高级、不跟风、又接地气的见解,别人只会和 AI 聊天,而你能调教 AI,并能用代码将大模型和业务衔接。
- 大模型 AI 能干什么?
- 大模型是怎样获得「智能」的?
- 用好 AI 的核心心法
- 大模型应用业务架构
- 大模型应用技术架构
- 代码示例:向 GPT-3.5 灌入新知识
- 提示工程的意义和核心思想
- Prompt 典型构成
- 指令调优方法论
- 思维链和思维树
- Prompt 攻击和防范
- …
第二阶段(30天):高阶应用
该阶段我们正式进入大模型 AI 进阶实战学习,学会构造私有知识库,扩展 AI 的能力。快速开发一个完整的基于 agent 对话机器人。掌握功能最强的大模型开发框架,抓住最新的技术进展,适合 Python 和 JavaScript 程序员。
- 为什么要做 RAG
- 搭建一个简单的 ChatPDF
- 检索的基础概念
- 什么是向量表示(Embeddings)
- 向量数据库与向量检索
- 基于向量检索的 RAG
- 搭建 RAG 系统的扩展知识
- 混合检索与 RAG-Fusion 简介
- 向量模型本地部署
- …
第三阶段(30天):模型训练
恭喜你,如果学到这里,你基本可以找到一份大模型 AI相关的工作,自己也能训练 GPT 了!通过微调,训练自己的垂直大模型,能独立训练开源多模态大模型,掌握更多技术方案。
到此为止,大概2个月的时间。你已经成为了一名“AI小子”。那么你还想往下探索吗?
- 为什么要做 RAG
- 什么是模型
- 什么是模型训练
- 求解器 & 损失函数简介
- 小实验2:手写一个简单的神经网络并训练它
- 什么是训练/预训练/微调/轻量化微调
- Transformer结构简介
- 轻量化微调
- 实验数据集的构建
- …
第四阶段(20天):商业闭环
对全球大模型从性能、吞吐量、成本等方面有一定的认知,可以在云端和本地等多种环境下部署大模型,找到适合自己的项目/创业方向,做一名被 AI 武装的产品经理。
- 硬件选型
- 带你了解全球大模型
- 使用国产大模型服务
- 搭建 OpenAI 代理
- 热身:基于阿里云 PAI 部署 Stable Diffusion
- 在本地计算机运行大模型
- 大模型的私有化部署
- 基于 vLLM 部署大模型
- 案例:如何优雅地在阿里云私有部署开源大模型
- 部署一套开源 LLM 项目
- 内容安全
- 互联网信息服务算法备案
- …
学习是一个过程,只要学习就会有挑战。天道酬勤,你越努力,就会成为越优秀的自己。
如果你能在15天内完成所有的任务,那你堪称天才。然而,如果你能完成 60-70% 的内容,你就已经开始具备成为一名大模型 AI 的正确特征了。
这份完整版的大模型 AI 学习资料已经上传CSDN,朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费
】
更多推荐
所有评论(0)