【收藏向】LLM-based智能体综述:通往AGI的关键路径,小白程序员必看学习指南
智能体简单来说,就是能从周围环境中获取信息(感知),并主动执行动作、完成任务的“智能实体”,是我们实现人工通用智能(AGI)的核心突破口。其核心特征有4点,小白记牢这4点就能快速理解:① 自主性(不用人工全程操控,能独立做决策);② 感知能力(像人一样“看、听”,通过传感器等采集环境信息);③ 决策能力(基于感知到的信息,判断该做什么动作);④ 动作能力(能执行决策,改变环境状态,比如调用工具、输
本文为LLM智能体核心综述(适配小白+程序员学习,可直接收藏备查),系统梳理基于大型语言模型(LLM)的智能体核心知识,将其定位为实现通用人工智能(AGI)最具潜力的方向之一。全文不仅涵盖单智能体与多智能体系统的定义、核心组件及研究框架,还对比了LLM-based智能体与强化学习智能体的优劣差异,详解主流数据集与基准测试工具(小白可直接套用学习),深入探讨其在自然科学、社会科学等多领域的落地场景,同时点出LLM固有约束等核心挑战,并展望持续学习、多模态融合等未来发展趋势,助力程序员快速入门LLM智能体领域。
1. 核心概括(快速抓重点,小白必看)
本综述聚焦基于大型语言模型(LLM)的智能体,明确其作为通往人工通用智能(AGI)的核心潜在路径,帮程序员搭建完整的LLM智能体知识框架。内容上,系统梳理了单智能体与多智能体系统的定义、研究框架及核心组件(含规划、记忆、反思、工具使用、环境交互五大核心,小白可重点记这5点),对比了LLM-based智能体与强化学习(RL)智能体的优劣的同时,补充了实际应用中的选型建议;详细阐述多智能体系统中角色协作、消息传递及通信效率提升的实用策略,介绍了小白入门可实操的主流数据集与基准测试工具,拆解其在自然科学、社会科学、工程系统等领域的落地案例,点出LLM固有约束、动态扩展、安全信任等实际开发中会遇到的挑战,并给出未来学习重点——持续学习、多模态融合等发展趋势,助力程序员精准发力。
2. 思维导图(可视化梳理,收藏便于复盘)
(思维导图清晰呈现全文逻辑,小白可对照梳理知识体系,程序员可用于项目选型参考,建议收藏保存)

3. 详细总结(逐模块拆解,小白能懂,程序员能用)
一、研究背景与智能体基础(入门基石,必学)
1. 智能体定义与定位(小白通俗解读)
智能体简单来说,就是能从周围环境中获取信息(感知),并主动执行动作、完成任务的“智能实体”,是我们实现人工通用智能(AGI)的核心突破口。其核心特征有4点,小白记牢这4点就能快速理解:① 自主性(不用人工全程操控,能独立做决策);② 感知能力(像人一样“看、听”,通过传感器等采集环境信息);③ 决策能力(基于感知到的信息,判断该做什么动作);④ 动作能力(能执行决策,改变环境状态,比如调用工具、输出结果)。
2. 智能体分类(按功能划分,选型必备)
根据功能与决策逻辑,智能体主要分为5类,其中后两类是程序员学习LLM智能体的重点,小白可先掌握分类框架:
- 简单反射型:最基础的类型,基于当前感知到的信息直接做出反应,没有记忆和推理能力(比如简单的自动回复机器人);
- 基于模型反射型:比简单反射型更高级,会结合环境模型做决策,能简单预测环境变化(比如简单的路径规划机器人);
- 目标导向型:以达成明确目标为核心,会规划动作序列(比如“完成一篇技术博客”的智能助手,会拆解“找素材→写初稿→改语病”的步骤);
- 效用导向型:不仅要达成目标,还要追求“效果最优”(比如智能推荐系统,不仅推荐内容,还会优化推荐准确率,提升用户点击量);
- 学习型(重点):能通过经验不断改进行为,是LLM智能体的核心类型,其中RL-based智能体(强化学习智能体)与LLM-based智能体,是目前主流的两大方向,下文会重点对比。
3. LLM-based智能体的兴起(为什么LLM智能体成为趋势?)
LLM-based智能体的崛起,核心是解决了传统RL-based智能体的诸多痛点,同时结合了LLM的天然优势,小白和程序员可重点掌握“优劣对比”,便于理解其发展逻辑:
- RL-based智能体局限(痛点):训练周期极长(需要大量探索环境、积累样本)、样本效率低(耗费大量计算资源,小团队难以承受)、稳定性差(高维函数逼近时容易出现波动,效果不稳定)、泛化性弱(只能适配特定任务,换个场景就需要重新训练,比如训练好的游戏智能体,无法直接用于办公场景)。
- LLM的优势与不足:优势很突出——擅长自然语言处理、逻辑推理、问答、编程等任务,具备海量知识储备;但也有明显不足——上下文长度有限(处理长文本时容易忽略中间信息)、知识更新慢(训练迭代需要大量数据和算力,普通开发者难以实现)、无法直接调用外部工具(原生LLM只能输出文本,不能直接操作计算器、数据库等)。
- LLM-based智能体优势(核心亮点):完美弥补了RL的痛点,同时放大了LLM的优势,也是我们学习的核心价值所在:① 强大的自然语言处理与知识储备(覆盖常识和各类领域知识,不用额外手动灌输基础信息);② 零样本/少样本学习(面对新任务,只需给少量示例,就能快速适配,不用重新大量训练,小白也能快速上手);③ 自然的人机交互(支持自然语言对话接口,不用学习复杂的指令,普通人也能使用,降低落地门槛)。
二、LLM-based智能体系统框架(核心重点,收藏反复看)
LLM-based智能体系统主要分为单智能体和多智能体两类,小白可先从单智能体入手,掌握核心组件;程序员可重点关注多智能体的协作与通信,适配复杂项目需求。
(一)单智能体系统(基础框架,小白入门首选)
单智能体是指单个独立工作的智能体,核心是“五大组件”,搭配外部工具和环境,就能实现各类基础任务,附上框架图(建议收藏),直观理解各组件关系:

1. 核心组件(五要素模型 (V=(L, O, M, A, R)))(必记,面试/选型常用)
单智能体的五大核心组件,缺一不可,小白可结合“功能+示例”理解,程序员可直接参考用于项目搭建:
| 组件 | 定义与功能(小白通俗解读) | 关键技术/示例(程序员可参考) |
|---|---|---|
| LLM(L) | 智能体的“大脑”,负责所有任务的规划、决策,结合观察到的信息、记忆、反馈来工作 | 动态调整温度参数,无需额外训练,可直接适配基础任务 |
| 目标(O) | 智能体要完成的最终任务,需要将大目标拆解成一个个可执行的小动作 | 代码生成、游戏探索、文案撰写等具体任务目标,可通过Prompt拆解 |
| 记忆(M) | 智能体的“记忆库”,存储任务相关信息、环境反馈和奖励,方便后续决策参考 | 短期记忆(对话历史、当前任务进度)、长期记忆(知识图谱、历史任务经验) |
| 动作(A) | 智能体的“执行能力”,可执行的操作,核心是调用工具、与环境交互 | 调用API、使用计算器、控制机器人臂、查询数据库、生成代码等 |
| 反思(R) | 智能体的“自我优化能力”,评估之前的动作是否正确,结合反馈调整后续行为 | ReAct(交互推理+动作交替执行)、Reflexion(自我反思,修正错误) |
2. 外部组件(拓展能力,让智能体更实用)
核心组件是基础,搭配外部工具和环境,才能让智能体真正落地,小白可了解常用工具,程序员可直接选型:
- 工具:智能体可调用的外部“帮手”,解决LLM无法直接执行操作的问题,常用工具及案例:ToolFormer(LLM自主选择合适的工具)、HuggingGPT(集成多个AI模型工具,一站式完成复杂任务)、SQL执行器(查询数据库)、代码解释器(运行代码)等。
- 环境:智能体交互的“场景”,不同场景对应不同的任务需求,分为5类,附典型案例(小白可对应理解,程序员可参考场景选型):
| 环境类型 | 交互方式(通俗解读) | 典型案例(程序员可参考落地) |
|---|---|---|
| 计算机环境 | 与电脑系统交互,如爬取网页、调用API、查询数据库 | WebGPT(搜索辅助问答)、SheetCopilot(表格交互,自动处理Excel) |
| 游戏环境 | 控制游戏角色,与游戏场景交互,感知游戏状态 | Voyager(Minecraft探索,自主完成游戏任务)、DECKARD(游戏任务设计) |
| 代码环境 | 生成代码、调试代码、评估代码质量 | GPT-Engineer(生成完整代码库)、MetaGPT(协作编程,模拟团队开发) |
| 现实环境 | 通过传感器采集现实数据,控制实体设备,与人交互 | TaPA(实体任务规划,如机器人取物)、Di Palo等(机器人操作,完成现实任务) |
| 仿真环境 | 模拟现实场景,进行模型操控、数据分析、优化 | TrafficGPT(交通仿真,优化交通调度)、AucArena(拍卖仿真,模拟市场交易) |
3. 核心能力实现(小白了解原理,程序员掌握技术)
单智能体的核心能力(规划、记忆、反思),需要通过具体技术实现,以下是常用技术,小白可了解,程序员可直接参考用于开发:
- 反思能力实现:通过评估与反馈优化行为,常用方法:ReAct(交替生成推理与动作,边想边做)、Reflexion(计算启发式判断环境重置,及时修正错误)、CoH(基于反馈的序列优化,优化动作序列)、Process Supervision(过程监督优于结果监督,确保每一步都正确)、Retroformer(从回顾模型学习,总结历史经验)、REMEMBER(强化学习+经验记忆更新,提升学习效率)。
- 记忆能力实现:分为短期记忆和长期记忆,搭配检索技术,提升记忆利用率:① 短期记忆:依赖LLM上下文窗口,存储当前任务相关信息(如ChatDev的对话历史,记住当前聊天内容);② 长期记忆:通过外部存储扩展,如知识图谱(存储实体关系,比如“苹果”和“水果”的关联)、向量数据库(高效检索记忆,快速找到需要的信息)、MemGPT(管理多记忆层级,区分重要和次要记忆);③ 记忆检索:基于检索增强生成(RAG),结合外部知识库提升输出可靠性(如LaGR-SEQ的样本高效查询,小白可理解为“智能体查资料”,确保输出准确)。
- 规划能力实现:将大目标拆解成可执行的动作序列,常用方法分为三类:① 上下文学习(ICL):无需训练,通过示例引导,如Chain of Thought(CoT)(拆解复杂任务,比如“写技术博客”拆解为“找素材→列大纲→写内容→改语病”)、Tree of Thought(ToT)(树状思维探索,考虑多种实现路径,选择最优解)、Self-consistency(多推理路径投票,提升决策准确性);② 外部方法:结合经典规划工具,如LLM+P(结合经典规划器与PDDL语言,实现复杂任务规划)、LLM-DP(LLM+符号规划器,解决实体任务);③ 多阶段方法:分步骤规划,如SwiftSage(快速直觉思考+审慎思考,先快速给出方案,再仔细优化)、DECKARD(Dreaming分解子目标+Awake验证策略,先拆解目标,再验证可行性)。
(二)多智能体系统(MAS)(复杂任务适配,程序员重点学)
多智能体系统由多个相互交互的智能体组成,擅长处理跨领域、复杂的大型任务(比如模拟团队开发、复杂系统调度),核心是“协作与通信”,小白可了解框架,程序员可重点掌握细节。
1. 核心特征与分类
多智能体系统的核心是“多个智能体协同工作”,关键分类维度有2个,其中角色关系和规划类型,直接影响项目选型:
- 角色关系:根据智能体之间的互动模式划分,适配不同任务场景:① 协作型(重点):多个智能体分工合作,完成同一个目标(如Generative Agents模拟人类协作,像团队一样工作);② 竞争型:智能体之间相互竞争,优化自身表现(如Liang等的多智能体辩论,通过辩论提升输出质量);③ 混合型:既有协作也有竞争(如Werewolf游戏中的合作与背叛,部分智能体协作,部分相互对抗);④ 层级型:智能体有明确的层级,上级分配任务,下级执行(如AutoGen的任务分解,高层智能体拆解目标,低层智能体执行具体动作)。
- 规划类型:根据规划方式划分,各有优劣,程序员需根据项目需求选型:
| 规划类型 | 定义(通俗解读) | 优势 | 不足 |
|---|---|---|---|
| 集中规划分散执行(CPDE) | 有一个“中央大脑”(中央LLM)负责全局规划,各个智能体只负责执行自己的任务 | 全局优化,协调高效,不会出现各智能体“各自为政”的情况 | 计算复杂,中央大脑负担重,一旦中央大脑出现故障,整个系统瘫痪(单点故障风险高) |
| 分散规划分散执行(DPDE) | 没有中央大脑,每个智能体独立规划自己的动作,通过通信协调工作 | 鲁棒性强,一个智能体故障,不影响其他智能体,适应动态环境 | 难以达到全局最优,各智能体规划可能冲突,通信开销大(需要频繁传递信息) |
2. 通信机制与效率提升(程序员重点,解决多智能体卡顿、冲突问题)
多智能体之间的“沟通”,直接影响系统效率,核心是“减少冗余通信、提升沟通准确性”,具体如下:
- 信息交换方式:分为3类,适配不同复杂度的系统:① 无通信:各智能体只依赖自己的本地信息工作,不与其他智能体交互(适用于简单、独立的子任务);② 有通信:通过消息传递交换信息(适用于大多数复杂任务,如团队协作编程);③ 共享内存:有一个中央知识库,所有智能体都能读取和写入信息(如MetaGPT的全局内存池、共享参数,方便各智能体同步进度)。
- 通信效率提升策略(程序员实用技巧):解决多智能体通信卡顿、冗余的问题,3个核心策略:
- \1. 设计规范通信协议:明确消息的语义、语法(如KQML、FIPA-ACL标准)、交互协议(对话结构),避免各智能体“沟通不畅”;
- \2. 引入中介模型:设置一个“中介智能体”,判断两个智能体是否需要交互,减少冗余通信(如Hu等的成本优化交互,避免无效消息传递);
- \3. 抑制LLM无效输出:减少智能体输出无关、冗余的信息,如CoVe(生成验证问题修正输出,避免错误消息)、合成数据微调(减少谄媚输出、无效回复,提升通信质量)。
三、性能评估(小白了解,程序员必备,判断智能体效果)
搭建好LLM智能体后,需要通过数据集和基准测试,判断其性能好坏,以下是主流的数据集和基准测试工具,程序员可直接套用,小白可了解评估逻辑。
(一)关键数据集(训练、测试必备,程序员收藏)
数据集是训练和测试智能体的“素材”,不同领域对应不同数据集,以下是主流数据集,附核心信息,方便程序员选型:
| 数据集名称 | 领域 | 核心内容与规模(小白可忽略规模,重点看领域) |
|---|---|---|
| HotpotQA | NLP(自然语言处理) | 多跳问答,含11.4万训练样本、7千开发样本、3千测试样本,用于测试智能体的问答、推理能力 |
| CAMEL | 社会/代码 | 社会对话:50个助手角色+50个用户角色+10个任务=2.5万对话;代码对话:20种语言+50个领域=5万对话,用于测试多角色交互、代码能力 |
| APPS | 编程 | 1万道编程题,覆盖不同难度,用于测试智能体的编程、调试能力 |
| HumanEval | 编程 | 164道原创编程题,评估语言理解与算法能力,难度适中,适合入门测试 |
| ToolBench | 工具使用 | 1.6万+真实RESTful API,含单工具与多工具场景,用于测试智能体的工具调用能力 |
| MITCOURSE ES | 数学 | 7门课程(微积分、线性代数等),每门25道题,用于测试智能体的数学推理能力 |
(二)主流基准测试(评估性能,小白了解,程序员实用)
基准测试是“评估标准”,用于判断智能体在不同任务上的表现,主流测试工具如下,程序员可根据任务类型选择:
- ToolBench:重点评估智能体的工具使用能力,覆盖49类API场景,适合测试工具调用类智能体;
- AgentSims:开源评估平台,模拟虚拟城镇、办公等真实场景,测试智能体的规划与决策能力,小白也能直观看到智能体表现;
- AgentBench:综合评估智能体的基础能力,包括工具使用、记忆、推理、交互等,适合全面评估智能体;
- SmartPlay:通过6类游戏场景、20种评估配置,测试智能体的环境适应能力,适合游戏类智能体测试;
- MLAgentBench:机器学习任务基准,支持文件读写、代码执行等操作,适合机器学习相关智能体测试。
四、应用前景(小白看趋势,程序员找落地机会)
LLM-based智能体的应用场景非常广泛,覆盖自然科学、社会科学、工程系统等多个领域,以下是重点应用场景,附落地案例,小白可了解行业趋势,程序员可寻找项目落地机会。
(一)自然科学(前沿领域,潜力巨大)
在自然科学研究中,LLM智能体可替代部分重复工作,加速研究进度,重点应用如下:
- \1. 数学:Math Agents自主探索数学问题、LeanDojo辅助定理证明、ToRA结合工具解决复杂数学问题(如微积分、线性代数难题);
- \2. 化学与材料:Coscientist自主设计化学实验(减少人工实验成本)、ChatMOF预测生成MOF(金属有机框架材料)、ChemCrow访问化学数据库,快速检索化学数据,加速研究;
- \3. 生物学:BioPlanner评估生物实验规划、OceanGPT生成海洋科学数据、模拟生态系统与分子机制(如蛋白质结构预测);
- \4. 气候科学:Kraus等用LLM提取ClimateWatch排放数据、模拟气候系统,预测大气现象(如台风、降雨)。
(二)通用自主智能体(小白易理解,程序员易落地)
通用自主智能体是最贴近日常和办公的类型,小白可直观感受其价值,程序员可快速落地:
- 通用任务助手:HuggingGPT(集成多AI模型,一站式完成问答、生成、翻译等任务)、AutoGPT(自动分解目标,无需人工干预)、BabyAGI(任务生成与存储,自动管理任务进度);
- 工作/研究助手:GPT Researcher(自动生成研究报告,减少人工撰写成本)、Boiko等的智能体自主设计科学实验、MemWalker(长文本阅读交互,快速提炼长文档核心内容,适合程序员看技术文档)。
(三)社会科学与工程系统(落地场景丰富,程序员重点关注)
这类场景需求明确,落地价值高,适合程序员承接项目,附领域与典型应用,一目了然:
| 领域 | 典型应用(程序员可参考落地,小白可了解价值) |
|---|---|
| 经济学与金融 | Horton对比LLM与人类经济行为、TradingGPT的分层记忆提升交易决策(如股票、基金决策)、AucArena模拟拍卖,优化市场交易 |
| 教育学 | AgentVerse模拟NLP课堂(辅助教学)、CGMI模拟师生交互(智能助教)、Math Agents转换数学公式格式(辅助学生学习) |
| 机器人系统 | TaPA的实体任务规划、ProAgent的协作推理、RoCo的多机器人协作(如工厂机器人协同作业) |
| 医疗系统 | Williams等的流行病建模(预测疫情传播)、AI-SCI评估临床任务能力(辅助医生诊断)、模拟药物发现与优化(加速新药研发) |
五、发展趋势与挑战(小白定学习方向,程序员定技术路线)
学习LLM智能体,不仅要掌握当前知识,还要了解未来趋势和行业挑战,小白可明确学习重点,程序员可规划技术路线,避免盲目跟风。
1. 发展趋势(未来重点,必学)
- 标准化评估:未来会建立统一的评估基准,涵盖基础能力(如推理、工具使用)与领域能力(如法律、医疗),解决当前“各评估标准不统一”的问题,小白和程序员可重点关注统一基准的发布;
- 持续进化:智能体将实现真正的持续学习(无灾难性遗忘,学习新知识不忘记旧知识)、自我评估与动态目标调整(能自主判断自身不足,调整任务目标)、环境适应性提升(快速适配新场景,不用大量重新训练);
- 多模态融合(重点中的重点):结合图像、语音、视频等多模态信息,打破当前“仅处理文本”的局限,如GPT-4V、PALM-E的多模态任务处理(能看图、听语音,再执行动作),这是未来LLM智能体的核心发展方向,程序员可重点深耕。
2. 核心挑战(实际开发/学习中会遇到的问题,提前规避)
- LLM固有约束:这是最核心的挑战,如上下文长度有限、知识更新延迟、易产生幻觉(输出错误信息),小白学习时要注意辨别,程序员开发时要通过RAG、微调等方式缓解;
- 动态扩展:随着任务复杂度提升,系统需要自适应调整规模与资源分配(如LLM级联降低成本,避免单LLM负担过重),这对程序员的系统设计能力要求较高;
- 安全与信任:智能体的权限分配、可靠性测试至关重要,如ToolEmu模拟工具执行评估风险,避免智能体误操作(如误删数据、违规调用API),确保智能体安全落地。
结尾总结(小白收藏,程序员复盘)
基于LLM的智能体,是通往AGI的关键路径,也是当前AI领域最具潜力的方向之一,非常适合小白入门AI、程序员拓展技术边界。本文从基础概念、系统框架、性能评估、应用前景、趋势挑战五个维度,拆解了LLM智能体的核心知识,补充了小白能懂的通俗解读和程序员能用的实操技巧、选型建议,建议收藏备查,后续学习或开发时,可随时对照复盘。
如何学习大模型 AI ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。
但是具体到个人,只能说是:
“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
我在一线科技企业深耕十二载,见证过太多因技术卡位而跃迁的案例。那些率先拥抱 AI 的同事,早已在效率与薪资上形成代际优势,我意识到有很多经验和知识值得分享给大家,也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我们整理出这套 AI 大模型突围资料包:
- ✅ 从零到一的 AI 学习路径图
- ✅ 大模型调优实战手册(附医疗/金融等大厂真实案例)
- ✅ 百度/阿里专家闭门录播课
- ✅ 大模型当下最新行业报告
- ✅ 真实大厂面试真题
- ✅ 2026 最新岗位需求图谱
所有资料 ⚡️ ,朋友们如果有需要 《AI大模型入门+进阶学习资源包》,下方扫码获取~
① 全套AI大模型应用开发视频教程
(包含提示工程、RAG、LangChain、Agent、模型微调与部署、DeepSeek等技术点)
② 大模型系统化学习路线
作为学习AI大模型技术的新手,方向至关重要。 正确的学习路线可以为你节省时间,少走弯路;方向不对,努力白费。这里我给大家准备了一份最科学最系统的学习成长路线图和学习规划,带你从零基础入门到精通!
③ 大模型学习书籍&文档
学习AI大模型离不开书籍文档,我精选了一系列大模型技术的书籍和学习文档(电子版),它们由领域内的顶尖专家撰写,内容全面、深入、详尽,为你学习大模型提供坚实的理论基础。
④ AI大模型最新行业报告
2025最新行业报告,针对不同行业的现状、趋势、问题、机会等进行系统地调研和评估,以了解哪些行业更适合引入大模型的技术和应用,以及在哪些方面可以发挥大模型的优势。
⑤ 大模型项目实战&配套源码
学以致用,在项目实战中检验和巩固你所学到的知识,同时为你找工作就业和职业发展打下坚实的基础。
⑥ 大模型大厂面试真题
面试不仅是技术的较量,更需要充分的准备。在你已经掌握了大模型技术之后,就需要开始准备面试,我精心整理了一份大模型面试题库,涵盖当前面试中可能遇到的各种技术问题,让你在面试中游刃有余。

以上资料如何领取?

为什么大家都在学大模型?
最近科技巨头英特尔宣布裁员2万人,传统岗位不断缩减,但AI相关技术岗疯狂扩招,有3-5年经验,大厂薪资就能给到50K*20薪!

不出1年,“有AI项目经验”将成为投递简历的门槛。
风口之下,与其像“温水煮青蛙”一样坐等被行业淘汰,不如先人一步,掌握AI大模型原理+应用技术+项目实操经验,“顺风”翻盘!

这些资料真的有用吗?
这份资料由我和鲁为民博士(北京清华大学学士和美国加州理工学院博士)共同整理,现任上海殷泊信息科技CEO,其创立的MoPaaS云平台获Forrester全球’强劲表现者’认证,服务航天科工、国家电网等1000+企业,以第一作者在IEEE Transactions发表论文50+篇,获NASA JPL火星探测系统强化学习专利等35项中美专利。本套AI大模型课程由清华大学-加州理工双料博士、吴文俊人工智能奖得主鲁为民教授领衔研发。
资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的技术人员,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

以上全套大模型资料如何领取?

更多推荐


所有评论(0)