本文介绍了斯坦福大学提出的ACE框架,通过将上下文视为不断演进的剧本,解决了现有上下文自适应方法面临的简洁性偏差和上下文崩溃问题。ACE利用生成、反思和整理的模块化过程,实现增量更新以保留详细知识。实验表明,该框架在Agent和金融分析任务中分别提升性能10.6%和8.6%,无需标记监督即可实现自我改进,为构建可扩展、高效且自我改进的LLM系统提供了新思路。

前排提示,文末有大模型AGI-CSDN独家资料包哦!

大家都知道智能体核心的环节AgentLoop非常依赖长上下文,面临着非常复杂的问题,可以参考刚发布的Langchain和Manus在AI 智能体的上下文工程实践,以至于上下文已经进入工程化研究阶段,但近期斯坦福大学等作者的论文打开了另外一扇窗,竟然能自我改进实现上下文的不断优化。此前虽然粗略的读了一遍,但这种经典论文还是需要完整的深入读一下,以下是论文《Agentic Context Engineering: Evolving Contexts for Self-Improving Language Models》完整的译文,一起Enjoy。

大型语言模型 (LLM) 应用(例如Agent和领域特定推理)越来越依赖于上下文自适应——使用指令、策略或证据来修改输入,而不是更新权重。先前的方法虽然提高了可用性,但常常受到简洁性偏差的影响,这会为了简洁的摘要而牺牲领域洞察力,并且会受到上下文崩溃的影响,即迭代重写会随着时间的推移侵蚀细节。基于 Dynamic Cheatsheet 引入的自适应记忆,我们引入了 ACE(Agentic Context Engineering),该框架将上下文视为不断发展的剧本(Playbook),通过模块化的生成、反思和整理过程来积累、完善和组织策略。ACE 通过结构化的增量更新来防止崩溃,这些更新可以保留详细的知识,并利用长上下文模型进行扩展。在Agent和特定领域的基准测试中,ACE 优化了离线(例如系统提示)和在线(例如Agent内存)的上下文,并始终优于强大的基线:Agent方面提升了 10.6%,财务方面提升了 8.6%,同时显著降低了适应延迟和部署成本。值得注意的是,ACE 可以在没有标记监督的情况下通过利用自然执行反馈进行有效适应。在 AppWorld 排行榜上,尽管使用了较小的开源模型,ACE 在总体平均值上与排名第一的生产级Agent相当,并在更难的测试挑战赛中超越了它。这些结果表明,全面、不断发展的上下文能够以较低的开销实现可扩展、高效且自我改进的 LLM 系统。

1 引言

图 1:总体性能结果。我们提出的框架 ACE,在Agent和特定领域推理任务中始终优于强基线。

基于大型语言模型(LLMs)的现代 AI 应用,如 LLM Agent和复合 AI 系统,越来越依赖于上下文适应。而不是修改模型权重,上下适应性改进在模型训练后通过将明确的指令、结构化的推理步骤或特定领域的输入格式直接整合到模型的输入中来提升性能。上下文支撑着许多 AI 系统组件,包括指导下游任务的系统提示、承载过去事实和经验的记忆,以及减少幻觉和补充知识的事实证据。

通过上下文而非权重进行适应提供了几个关键优势。上下文对用户和开发者来说是可解释和可说明的,允许在运行时快速集成新知识,并且可以在复合系统中的不同模型或模块之间共享。与此同时,长上下文 LLMs以及上下文高效推理(如 KV 缓存重用)的进步正在使基于上下文的方法在部署方面变得越来越实用。因此,上下文适应正在成为构建强大、可扩展和自我改进的 AI 系统的核心范式。

尽管取得了这些进展,现有的上下文适应方法面临两个关键限制。首先,简洁性偏差:许多提示优化器优先考虑简洁、广泛适用的指令,而不是全面积累。例如,GEPA强调简洁性是一种优势,但这种抽象可能会忽略实践中重要的领域特定启发式方法、工具使用指南或常见失败模式。这一目标在某些情况下与验证指标一致,但通常无法捕捉到Agent和知识密集型应用所需的详细策略。其次,上下文崩溃:依赖大型语言模型进行整体重写的方法,随着时间的推移往往会退化成更短、信息量更少的摘要,导致性能急剧下降(图 2)。在交互式Agent、领域特定编程以及金融或法律分析等领域,优异的性能取决于保留详细、任务特定的知识,而不是将其压缩掉。

随着像Agent和知识密集型推理这样的应用对可靠性提出更高要求,近期研究工作已转向用大量潜在有用的信息饱和上下文,这得益于长上下文 LLMs 的进步。我们认为,上下文不应作为简洁摘要发挥作用,而应作为全面、演进的战术手册——详细、包容且富含领域洞察。与人类通常受益于简洁泛化不同,当提供长而详细的上下文时,LLMs 更有效,并且能自主提炼相关性。因此,上下文不应压缩掉特定领域的启发式方法和策略,而应保留它们,让模型在推理时自行决定什么重要。

为解决这些局限性,我们引入了 ACE,这是一个用于在离线环境(例如系统提示优化)和在线环境(例如测试时记忆适应)中进行全面上下文自适应的框架。ACE 并非将上下文压缩成精炼的摘要,而是将其视为不断演变的剧本,随着时间的推移,这些剧本会积累和组织策略。ACE 基于 Dynamic Cheatsheet的代理架构,整合了生成、反思和整理的模块化工作流程,同时添加了遵循增长和细化原则的结构化增量更新。这种设计保留了详细的领域特定知识,防止上下文崩溃,并生成在整个自适应过程中保持全面性和可扩展性的上下文。

我们在两类最受益于全面、演进上下文的 LLM 应用上评估了 ACE:(1)智能体 ,它们需要多轮推理、工具使用和环境交互,其中积累的策略可以在不同场景中重复使用;(2)领域特定基准,它们需要专业战术和知识,我们专注于金融分析。我们的主要发现是:

  • ACE 始终优于强大的基线,在离线和在线适应设置中,对智能体平均提升 10.6%,对特定领域基准测试平均提升 8.6%。
  • ACE 能够在无标记监督的情况下构建有效上下文,而是利用执行反馈和环境信号——这是自改进 LLMs 和智能体的关键要素。
  • 在 AppWorld 基准排行榜上,ACE 平均与顶级生产级智能体 IBMCUGA(由 GPT-4.1 驱动)持平,并在更难的测试挑战拆分中超越它,同时使用的是较小的开源模型(DeepSeek-V3.1)。
  • ACE 需要显著更少的回滚次数和更低的美元成本,并且比现有自适应方法平均适应延迟降低 86.9%,证明可扩展的自改进可以在更高的准确性和更低的开销下实现。

2 背景与动机

2.1 上下文适应

上下文适应(或称上下文工程)是指通过构建或修改输入到 LLM 的数据来改进模型行为,而不是改变其权重的方法。当前最先进的技术利用自然语言反馈。在这种范式下,语言模型会检查当前上下文以及执行轨迹、推理步骤或验证结果等信号,并生成关于如何修改上下文的自然语言反馈。然后,这些反馈被整合到上下文中,实现迭代适应。代表性方法包括 Reflexion,它通过反思失败来改进Agent规划;TextGrad,它通过类似梯度的文本反馈优化提示;GEPA,它基于执行轨迹迭代地优化提示,并在某些情况下实现了优异性能,甚至超越了强化学习方法;以及 Dynamic Cheatsheet,它构建了一个外部记忆,在推理过程中积累从过去的成功和失败中得出的策略和经验。 这些自然语言反馈方法代表了一次重大进步,为改进 LLM 系统提供了灵活且可解释的信号,超越了权重更新。

2.2 现有上下文自适应方法的局限性

简洁性偏差。上下文适应方法的一个反复出现的限制是简洁性偏差:优化倾向于收敛到简短、通用的提示。Gao等人的文献表明在测试生成的提示优化中记录了这种效应,其中迭代方法反复生成近乎相同的指令(例如,“创建单元测试以确保方法按预期运行”),牺牲了多样性并省略了特定领域的细节。这种收敛不仅缩小了搜索空间,还使反复出现的错误在迭代中传播,因为优化的提示通常会继承其种子相同的错误。更广泛地说,这种偏差削弱了在需要详细、上下文丰富的指导的领域中的性能——例如多步Agent、程序合成或知识密集型推理——在这些领域中,成功取决于积累而不是压缩特定任务的见解。

图 2:上下文坍塌。LLM 对上下文的整体重写可能使其坍塌成更短、信息量更少的摘要,导致性能急剧下降。

上下文崩溃。在 AppWorld 基准测试的案例研究中中,我们观察到一种称为上下文崩溃的现象,当 LLM 在每个适应步骤中完全重写累积的上下文时,就会出现这种现象。随着上下文变得越来越大,模型倾向于将其压缩成更短、信息量更少的摘要,从而导致信息大量丢失。例如,在第 60 步,上下文包含 18,282 个标记,准确率达到 66.7,但在下一步,它崩溃到只有 122 个标记,准确率下降到 57.1——比没有适应的基线准确率 63.7 还要差。虽然我们通过动态备忘单(Dynamic Cheatsheet),这个问题并不是该方法特有的;相反,它反映了使用 LLM 进行端到端上下文重写的根本风险,其中积累的知识可能会被突然抹去而不是被保留。

图 3:AppWorld 基准测试上的 ACE 生成示例上下文(部分展示)。ACE 生成的上下文包含详细的、特定领域的见解,以及可直接使用的工具和代码,为 LLM 应用提供了一个全面的行动指南。

3 自主上下文工程(ACE)

我们提出了 ACE(自主上下文工程),这是一个用于离线(例如,系统提示优化)和在线(例如,测试时内存适应)场景中可扩展且高效的上下文适应框架。ACE 不是将知识压缩成简短的摘要或静态指令,而是将上下文视为不断积累、精炼和组织策略的演进剧本。基于动态备忘录的自主设计,ACE 引入了三个角色(图 4)的结构化分工:生成器(Generator),负责生成推理轨迹;反射器(Reflector),从成功和错误中提炼具体见解;以及策划器(Curator),将这些见解整合到结构化的上下文更新中。这反映了人类的学习方式——实验、反思和巩固——同时避免了将所有责任都压在单个模型上的瓶颈。

为解决2.2 中讨论的先前方法的局限性——尤其是简洁性偏差和上下文崩溃问题——ACE 引入了三项关键创新:(1) 一个专门的反射器,将评估和洞察提取与策展分离,从而提高上下文质量和下游性能;(2) 增量式Delta增量更新,用局部编辑替代昂贵的整体重写,减少延迟和计算成本;以及(3) 一个生长与精炼机制,在稳定上下文扩展与冗余控制之间取得平衡。

图 4:ACE 框架。受动态备忘录启发,ACE 采用具有三个专门组件的自主架构:一个生成器、一个反射器和一个策划器。

如图 4 所示,工作流程从生成器开始,为新的查询生成推理轨迹,这些轨迹既揭示有效的策略,也暴露反复出现的陷阱。反射器对这些轨迹进行评论以提取经验教训,并可选择在多次迭代中对其进行改进。然后,策划器将这些经验教训综合成紧凑的增量条目,这些条目通过轻量级、非 LLM 逻辑被确定性合并到现有上下文中。由于更新是逐项和本地化的,因此可以并行合并多个增量,从而实现大规模批量适应。ACE 还支持多周期适应,其中相同的查询会被重新访问以逐步增强上下文。

3.1 增量Delta更新

ACE 的核心设计原则是将上下文表示为一系列结构化的、分项的要点,而不是一个单一的、庞大的提示。要点的概念与 LLM 内存框架(如动态小抄[41]和 A-MEM[48])中的内存条目概念相似,但它在此基础上进行了扩展,由(1)元数据组成,包括唯一标识符和计数器,用于跟踪它被标记为有用或有害的频率;以及(2)内容,用于捕获一个小单元,例如可重用的策略、领域概念或常见错误模式。在解决新问题时,生成器会突出显示哪些要点是有用的或具有误导性的,提供反馈以指导反射器提出纠正更新。

这种分项设计具有三个关键特性:(1)定位性,因此只有相关的要点会被更新;(2)细粒度检索,因此生成器可以专注于最相关的知识;(3)增量适应,允许在推理过程中进行高效的合并、剪枝和去重。

与其完整地重新生成上下文,ACE 会逐步生成紧凑的增量上下文:由 Reflector 提炼的小型候选要点集,并由 Curator 整合。这避免了完整重写的计算成本和延迟,同时确保了过往知识的保留和新见解的逐步追加。随着上下文的增长,这种方法提供了长期或领域密集型应用所需的可扩展性。

3.2 成长与完善

除了增量增长,ACE 还通过周期性或惰性精炼确保上下文保持紧凑和相关性。在增长与精炼中,具有新标识符的要点会被追加,而现有要点则原地更新(例如,增加计数器)。随后进行去重步骤,通过语义嵌入比较要点来修剪冗余。这种精炼可以根据应用对延迟和准确性的需求,在每次增量后主动执行,或仅在超出上下文窗口时惰性执行。增量更新与逐步优化相结合,能够保持上下文在自适应扩展的同时,保持可解释性,并避免由整体式上下文重写引入的潜在变化。

4 结果

我们对 ACE 的评估表明:

  • 实现高性能、自我改进的智能体。ACE 通过动态优化输入上下文使智能体能够自我改进。它通过仅从执行反馈中学习如何构建更好的上下文,将 AppWorld 基准测试的准确率提高了高达 17.1%,而无需真实标签。这种由上下文驱动的改进使一个较小的开源模型能够与排行榜上排名第一的专有智能体的性能相媲美。(§4.3)
  • 在特定领域基准测试中取得巨大进步。在复杂的金融推理基准测试中,ACE 通过构建包含特定领域概念和见解的全面操作手册,使性能平均提高了 8.6%。(§4.4)
  • 设计有效。消融研究证实我们的设计选择是成功的关键,反射器等组件和多时期精炼各自贡献了显著的性能提升。(§4.5)
  • 降低成本和适应延迟。ACE 高效地实现了这些增益,平均将适应延迟降低了 86.9%,同时减少了回滚次数和更低的代币美元成本。(§4.6)

4.1 任务和数据集

我们在两类最受益于全面和演变上下文的 LLM 应用上评估了 ACE:(1) Agent基准,需要多轮推理、工具使用和环境交互,Agent可以在不同回合和环境间积累和重用策略;(2) 特定领域基准,需要掌握专业概念和战术,我们以金融分析作为案例研究。

LLM Agent:AppWorld是一套包含 API 理解、代码生成和环境交互的自主Agent任务。它提供了一个具有常见应用程序和 API(例如,电子邮件、文件系统)以及两个难度级别(普通和挑战)的现实执行环境。一个公共排行榜跟踪性能,在提交时,最佳系统仅实现了 60.3%的平均准确率,突出了基准的难度和真实性。

金融分析:FiNER和 Formula在基于可扩展商业报告语言(XBRL)的金融推理任务上测试 LLM。FiNER 需要在 XBRL 金融文档中对标记进行标注,标注为 139 种细粒度实体类型之一,这是在受监管领域进行金融信息提取的关键步骤。Formula 侧重于从结构化的 XBRL 申报中提取值并执行计算以回答金融查询,即数值推理。

评估指标。对于 AppWorld,我们遵循官方基准协议,并在 test-normal 和 test-challenge 拆分上报告任务目标完成度(TGC)和场景目标完成度(SGC)。对于 FiNER 和 Formula,我们遵循原始设置,并报告准确度,以预测答案与真实答案完全匹配的比例衡量。

所有数据集都遵循原始的训练/验证/测试拆分。对于离线上下文适应,方法在训练拆分上进行优化,并在测试拆分上使用 pass@1 准确度进行评估。对于在线上下文适应,方法按顺序在测试拆分上进行评估:对于每个样本,模型首先使用当前上下文进行预测,然后根据该样本更新其上下文。所有方法都使用相同的打乱测试拆分。

4.2 基线与方法

基础 LLM。基础模型直接在每个基准测试上进行评估,无需任何上下文工程,使用数据集作者提供的默认提示。对于 AppWorld,我们遵循官方的ReAct 实现,并在此框架之上构建所有其他基线和方法。

情境学习(ICL)。ICL 通过输入提示(少样本或多样本)向模型提供任务示例。这使得模型能够在无需更新权重的情况下推断任务格式和期望输出。当所有训练样本适合模型上下文窗口时,我们提供所有训练样本;否则,我们用尽可能多的示例填充窗口。

MIPROv2。MIPROv2 是一种流行的用于 LLM 应用的提示优化器,它通过贝叶斯优化联合优化系统指令和情境示例。我们使用官方的 DSPy 实现,将 auto 设置为"heavy"以最大化优化性能。

GEPA。GEPA(遗传-帕累托算法)是一种基于反射式提示进化的样本高效提示优化器。它收集执行轨迹(推理、工具调用、中间输出),并应用自然语言反射来诊断错误、分配信用以及提出提示更新。遗传帕累托搜索维护一个高性能提示的前沿,缓解局部最优问题。经验上,GEPA 优于强化学习方法(如 GRPO)和提示优化器(如 MIPROv2),在减少高达 35 倍的回滚次数的同时,实现了高达 10-20%更高的准确率。我们使用官方的 DSPy 实现[14],将 auto 设置为"heavy"以最大化优化性能。

动态备忘录(DC)。DC 是一种测试时学习方法(Test-time Learning),它引入了一个可自适应的外部记忆库,用于存储可重用的策略和代码片段。通过不断用新遇到的输入和输出来更新这个记忆库,DC 使模型能够积累知识并在不同任务中重用,通常比静态提示方法有显著改进。DC 的一个主要优势是它不需要真实标签:模型可以从自己的生成内容中管理自己的记忆库,使该方法非常灵活且广泛适用。我们使用了作者发布的官方实现版本,并将其设置为累积模式(DC-CU)。

ACE(我们提出的)。ACE 通过一个Agentic的上下文工程框架优化 LLM 上下文,以实现离线和在线适应。为确保公平性,我们使用相同的 LLM 作为生成器、反思器和策划器(DeepSeek-V3.1的非思考模式),防止知识从较强的反思器或策展人转移到较弱的生成器。这隔离了上下文构建本身的收益。我们采用批处理大小为 1(从每个样本构建一个增量上下文)。我们将反思器精炼轮次的最大次数和离线适应的最大轮数设置为 5。

表 1:AppWorld Agent Benchmark 上的结果。 “GT 标签”表示 Reflector 在自适应过程中是否可以使用真实标签。我们在官方ReAct实现的基础上,针对多个基准测试集对 ACE 框架进行了评估,涵盖离线和在线上下文自适应。ReAct + ACE 的性能平均比选定的基准测试集高出 10.6%,即使没有 GT 标签也能获得良好的性能。

4.3 Agent 基准测试结果

分析。如表 1 所示,ACE 在 AppWorld 基准测试上始终优于强基线。在离线设置中,ReAct + ACE 显著优于 ReAct + ICL 和 ReAct + GEPA(分别高出 12.3%和 11.9%),表明结构化、演化和详细的上下文比固定演示或单个优化指令提示更能有效地实现Agent学习。这些收益也扩展到在线设置,其中 ACE 继续平均比先前的自适应方法(如 Dynamic Cheatsheet)高出 7.6%。

在Agent使用场景中,即使在不访问真实标签的情况下,ACE 在适应过程中仍然有效:ReAct + ACE 在此设置中比 ReAct 基线平均提高了 14.8%。这种鲁棒性源于 ACE 利用了执行过程中自然可用的信号(例如,代码执行成功或失败)来指导 Reflector 和 Curator 形成结构化的成功和失败经验教训。这些结果共同确立了 ACE 作为一个强大且多功能的框架,用于构建能够可靠地适应有标签和无标签监督的自我改进Agent。

值得注意的是,在最新的 AppWorld 排行榜上(截至 2025 年 9 月 20 日;如下图所示),平均而言,ReAct + ACE(59.4%)与排名第一的 IBM CUGA(60.3%)相当,后者是基于 GPT-4.1 的生产级代理,尽管使用的是规模较小的开源模型 DeepSeek-V3.1。通过在线自适应,ReAct + ACE 在更难的测试-挑战划分中,TGC 甚至比 IBM CUGA 高出 8.4%,SGC 高出 0.7%,这凸显了ACE在为代理构建全面且可自我演化的情境方面的有效性。

表 2:金融分析基准测试结果。"GT 标签"表示在适应过程中 Reflector 是否可获得真实标签。有 GT 标签时,ACE 平均比选定的基线方法高 8.6%,突出了结构化和演化上下文在特定领域推理中的优势。然而,我们也观察到,在没有可靠反馈信号(例如真实标签或执行结果)的情况下,ACE 和其他自适应方法(如动态作弊表)都会退化,表明上下文适应严重依赖于反馈质量。

在更难的测试-挑战分割中,TGC 上比 IBM CUGA 高 8.4%,SGC 上高 0.7%,这强调了 ACE 在为智能体构建全面和自演化的上下文方面的有效性。

4.4 特定领域基准测试结果

分析。如表 2 所示,ACE 在金融分析基准测试中取得了显著的提升。在离线环境下,当提供训练集的真实答案时,ACE 的表现明显优于ICL、MIPROv2 和 GEPA(平均高出 10.9%),这表明,当任务需要精确的领域知识(例如,金融概念、XBRL 规则)时,结构化和不断发展的语境尤其有效,而这些知识超越了固定的演示或单一的优化提示。

表 3:AppWorld 上的消融研究。我们研究了 ACE(迭代优化、多轮次适应和离线预热)的设计选择如何帮助高质量上下文适应。

表 4:成本与速度分析。我们测量了 ACE 相对于 GEPA(离线)和 DC(在线)的上下文适应延迟、回滚次数和美元成本。

在线环境下,ACE 的表现仍然比之前的自适应方法(例如 DC)平均高出 6.2%,这进一步证实了代理上下文工程在跨专业领域积累可复用洞察方面的优势。此外,我们还观察到,当缺乏真实监督或可靠的执行信号时,ACE 和 DC 的性能都可能下降。在这种情况下,构建的语境可能会受到虚假或误导性信号的污染,这凸显了在没有可靠反馈的情况下,推理时间自适应的潜在局限性。这表明,虽然 ACE 在丰富的反馈(例如,代码执行结果或代理任务中的公式正确性)下具有鲁棒性,但其有效性取决于是否有信号允许Reflector 和 Curator 做出合理的判断。我们将在附录 B 中再次讨论这一局限性。

4.5 消融研究

表 3 报告了在 AppWorld 基准上的消融研究,分析了 ACE 的各个设计选择如何有助于有效的上下文适应。我们考察了三个因素:(1) 具有迭代优化的 Reflector,这是我们在动态备忘录之外为智能体框架添加的功能;(2) 多周期适应,它多次在训练样本上优化上下文;(3) 离线预热,它在在线适应开始前通过离线适应初始化上下文。

4.6 成长与速度分析

由于支持增量、“Delta"上下文更新以及非基于 LLM 的上下文合并和去重,ACE 在降低适应成本(以回滚次数或令牌摄取/生成的美元成本衡量)和延迟方面表现出显著优势。

作为例子,在 AppWorld 的离线适配中,与 GEPA 相比,ACE 将适配延迟降低了 82.3%,回滚次数减少了 75.1%。在线适配方面与 DC 相比,FiNER 的 ACE 在 token 摄取和生成方面实现了 91.5%的适应延迟减少和 83.6%的 token 美元成本减少。

5 结论

更长的上下文≠更高的服务成本。

尽管 ACE 比 GEPA 等方法生成的上下文更长,但这并不直接导致推理成本或 GPU 内存使用量线性增加。现代服务基础设施通过重用、压缩和卸载KV 缓存等技术,越来越优化于长上下文工作负载。这些机制允许频繁重用的上下文片段被本地或远程缓存,避免重复且昂贵的预填充操作。ML 系统的持续进步表明,处理长上下文的摊销成本将继续下降,使得像 ACE 这样富含上下文的方法在部署中越来越实用。

在线和持续学习的启示。在线和持续学习是机器学习中的关键研究方向,旨在解决分布偏移和训练数据有限等问题。ACE 为传统的模型微调提供了一种灵活且高效的替代方案,因为调整上下文通常比更新模型权重更经济。此外,由于上下文是人类可解释的,ACE 能够实现选择性遗忘——无论是由于隐私或法律限制,还是当领域专家识别到过时或错误的信息时。这些是未来工作的有前景的方向,其中 ACE 将在推进持续和负责任的学习中发挥核心作用。

读者福利:倘若大家对大模型感兴趣,那么这套大模型学习资料一定对你有用。

针对0基础小白:

如果你是零基础小白,快速入门大模型是可行的。
大模型学习流程较短,学习内容全面,需要理论与实践结合
学习计划和方向能根据资料进行归纳总结

包括:大模型学习线路汇总、学习阶段,大模型实战案例,大模型学习视频,人工智能、机器学习、大模型书籍PDF。带你从零基础系统性的学好大模型!

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

请添加图片描述

👉AI大模型学习路线汇总👈

大模型学习路线图,整体分为7个大的阶段:(全套教程文末领取哈)

第一阶段: 从大模型系统设计入手,讲解大模型的主要方法;

第二阶段: 在通过大模型提示词工程从Prompts角度入手更好发挥模型的作用;

第三阶段: 大模型平台应用开发借助阿里云PAI平台构建电商领域虚拟试衣系统;

第四阶段: 大模型知识库应用开发以LangChain框架为例,构建物流行业咨询智能问答系统;

第五阶段: 大模型微调开发借助以大健康、新零售、新媒体领域构建适合当前领域大模型;

第六阶段: 以SD多模态大模型为主,搭建了文生图小程序案例;

第七阶段: 以大模型平台应用与开发为主,通过星火大模型,文心大模型等成熟大模型构建大模型行业应用。

👉大模型实战案例👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

在这里插入图片描述

👉大模型视频和PDF合集👈

这里我们能提供零基础学习书籍和视频。作为最快捷也是最有效的方式之一,跟着老师的思路,由浅入深,从理论到实操,其实大模型并不难

在这里插入图片描述

👉学会后的收获:👈

• 基于大模型全栈工程实现(前端、后端、产品经理、设计、数据分析等),通过这门课可获得不同能力;

• 能够利用大模型解决相关实际项目需求: 大数据时代,越来越多的企业和机构需要处理海量数据,利用大模型技术可以更好地处理这些数据,提高数据分析和决策的准确性。因此,掌握大模型应用开发技能,可以让程序员更好地应对实际项目需求;

• 基于大模型和企业数据AI应用开发,实现大模型理论、掌握GPU算力、硬件、LangChain开发框架和项目实战技能, 学会Fine-tuning垂直训练大模型(数据准备、数据蒸馏、大模型部署)一站式掌握;

• 能够完成时下热门大模型垂直领域模型训练能力,提高程序员的编码能力: 大模型应用开发需要掌握机器学习算法、深度学习框架等技术,这些技术的掌握可以提高程序员的编码能力和分析能力,让程序员更加熟练地编写高质量的代码。

👉获取方式:

😝有需要的小伙伴,可以保存图片到wx扫描二v码免费领取【保证100%免费】🆓

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐