AI Agent智能体学习路径

本文聚焦AI Agent的10个核心模块,每个模块明确「核心内容、学习重点、线上学习资源」,兼顾理论理解与工程落地,适配面试备考与日常学习。后续将按每个模块发布详细的学习内容。

10个核心模块汇总表

模块序号 模块名称 核心定位 学习重点
1 Prompt工程 LLM驱动Agent的核心基础,决定Agent决策与交互效果 核心范式(ReAct、CoT)、Prompt设计与优化、场景适配
2 Agent 基础 岗位入门门槛,理解Agent架构与交互的基础 Agent定义与特征、类型划分、核心结构、环境交互逻辑
3 Function Call 与 Skills 与 MCP Agent工具调用、能力扩展、多任务协同的核心 函数调用流程、技能封装、多上下文存储与融合
4 RAG(检索增强生成) 解决Agent幻觉,实现长期记忆与知识管理的核心技术 RAG完整流程、文本分割与向量存储、检索优化
5 LangChain框架 Agent开发主流框架,简化工程落地流程 核心组件使用、工具调用与记忆机制、工程落地实操
6 AutoGen框架 多Agent协同开发核心框架,适配复杂任务协作 核心组件配置、多Agent协作模式、工程落地实操
7 AI Coding 岗位工程基础能力,提升Agent开发效率 AI Coding工具使用、编码规范、Agent代码调试
8 本地部署 Agent工程落地加分项,实现离线运行与隐私保护 环境搭建、模型与组件本地部署、性能优化
9 模型蒸馏 Agent性能优化方向,实现轻量化部署 蒸馏原理与步骤、Agent场景适配、工具使用
10 模型微调 Agent个性化优化核心,提升场景适配性 LoRA等微调类型、关键步骤、Agent场景适配

模块1:Prompt工程

一、核心内容

Prompt工程是通过设计精准、高效的提示词,引导大语言模型(LLM)输出符合预期的结果,是LLM驱动Agent的核心基础。核心涵盖Prompt设计原则、常用范式、优化方法,以及不同场景下的Prompt适配技巧,直接影响Agent的决策准确性与交互自然度。

二、学习重点

  1. 核心原则:清晰性、具体性、引导性,避免模糊表述,明确任务目标;

  2. 常用范式:ReAct(思考-行动-观察)、CoT(思维链)、Few-Shot(少样本提示)、Zero-Shot(零样本提示),重点掌握前两种(Agent推理核心);

  3. 优化技巧:指令优化、上下文控制、错误修正、角色设定,解决模型幻觉、输出偏离问题;

  4. 场景适配:结合Agent对话、工具调用、决策推理等场景,设计针对性Prompt。

三、线上学习资源

  • 官方文档:OpenAI Prompt Engineering Guide(最权威,含示例与最佳实践);

  • 线上课程:DeepLearning.AI《ChatGPT Prompt Engineering for Developers》(免费,实操性强);

  • 视频教程:B站「Prompt工程从入门到精通」(通俗易懂,含Agent场景案例);

  • 论文:《Chain-of-Thought Prompting Elicits Reasoning in Large Language Models》《ReAct: Synergizing Reasoning and Acting in Language Models》。

模块2:Agent 基础

一、核心内容

Agent基础是AI Agent岗位的入门门槛,核心涵盖Agent的定义、核心特征、类型划分、核心结构,以及Agent与环境、LLM的交互逻辑,是理解后续架构设计、组件抽象的基础。

二、学习重点

  1. 核心定义与特征:明确Agent是“自主感知、决策、执行,与环境交互实现目标的智能实体”,掌握自主性、反应性、社会性、目标导向性四大特征;

  2. 类型划分:重点区分简单反射型、基于模型的反射型、目标导向型、学习型Agent,掌握各自适用场景;

  3. 核心结构:感知模块、决策模块、执行模块、状态存储模块,关联后续Tool/Memory/Context组件;

  4. 交互逻辑:Agent与环境的“感知-决策-执行-反馈”循环,LLM作为Agent“大脑”的核心作用。

三、线上学习资源

  • 书籍:《人工智能:一种现代方法》(第4版)第2章(Agent基础经典教材);

  • 线上课程:Coursera《人工智能导论》(斯坦福大学)Agent章节;

  • 视频教程:B站「AI Agent入门详解」(梳理核心概念,贴合岗位需求);

  • 文档:LangChain官方文档「Agent基础」章节(结合工程落地场景)。

模块3:Function Call 与 Skills 与 MCP

一、核心内容

三者是Agent实现工具调用、能力扩展、多任务协同的核心,Function Call(函数调用)是Agent与外部工具交互的桥梁,Skills(技能)是Agent可执行的具体能力封装,MCP(Multi-Context Processing,多上下文处理)是Agent处理复杂任务、多来源信息的核心机制。

二、学习重点

  1. Function Call:掌握函数定义、参数校验、调用流程(识别需求→选择函数→调用→解析结果),以及异常处理(超时、失败重试);

  2. Skills:掌握技能封装逻辑,将常用能力(如查询、计算、生成)封装为可复用技能,实现Agent能力扩展;

  3. MCP:掌握多上下文的存储、检索、融合方法,解决上下文过载、多任务冲突问题,适配多Agent协同场景。

三、线上学习资源

  • 官方文档:OpenAI Function Call 官方指南、LangChain Tool/Function章节;

  • 实操教程:GitHub「Function Call实战案例」(含Agent工具调用完整代码);

  • 视频教程:B站「AI Agent函数调用从入门到实战」(含技能封装示例);

  • 论文:《Toolformer: Language Models Can Teach Themselves to Use Tools》。

模块4:RAG(检索增强生成)

一、核心内容

RAG是解决Agent“幻觉”、提升决策准确性的核心技术,通过将外部知识库(文档、数据)检索与LLM生成结合,让Agent基于真实、最新的信息进行决策,是Agent长期记忆、知识管理的核心实现方式。

二、学习重点

  1. 核心流程:文档加载→文本分割→向量嵌入→向量存储→检索匹配→上下文融合→生成输出;

  2. 关键技术:文本分割策略(避免语义断裂)、向量嵌入模型选择、向量数据库使用(Pinecone、Chroma);

  3. 优化方向:检索准确性优化、上下文融合技巧、知识库更新机制,适配Agent长期记忆场景;

  4. 工程落地:结合LangChain实现RAG流程,集成到Agent系统中。

三、线上学习资源

  • 官方文档:LangChain RAG官方指南、Pinecone/Chroma官方文档(向量数据库使用);

  • 线上课程:DeepLearning.AI《Retrieval-Augmented Generation (RAG)》(免费,实操性强);

  • 实操教程:GitHub「LangChain RAG实战项目」(含完整代码与知识库搭建);

  • 视频教程:B站「RAG检索增强生成完整教程」(从理论到落地)。

模块5:LangChain框架

一、核心内容

LangChain是AI Agent开发的主流框架,核心用于简化Agent的开发流程,提供Prompt管理、工具调用、记忆机制、链(Chain)与Agent封装等功能,支持快速搭建通用型、工具型Agent,是工程落地的核心工具。

二、学习重点

  1. 核心组件:Agent类(ZeroShotAgent、ConversationalAgent)、Tool类、Memory类、Chain类,掌握各组件的作用与使用方法;

  2. 核心功能:Prompt模板管理、工具调用封装、记忆机制(短期/长期)、RAG集成、多Agent简单协同;

  3. 工程落地:使用LangChain搭建简单Agent、工具调用型Agent,掌握组件间解耦设计;

  4. 进阶技巧:自定义Tool、自定义Memory,结合向量数据库实现长期记忆,优化Agent性能。

三、线上学习资源

  • 官方文档:LangChain官方文档(中文/英文,最权威,含示例代码);

  • 线上课程:LangChain官方实战教程、B站「LangChain从入门到精通」;

  • 书籍:《LangChain实战:构建大语言模型驱动的应用》;

  • 开源项目:LangChain官方示例项目(agent-tools、rag示例)。

模块6:AutoGen框架

一、核心内容

AutoGen是聚焦多Agent协同的主流框架,核心优势在于灵活的角色定义、多模态通信、动态任务调度,支持快速搭建多Agent协同系统,适配复杂任务拆解与协作,是多Agent架构设计的核心工具。

二、学习重点

  1. 核心组件:Agent类、GroupChat(多Agent聊天)、AssistantAgent、UserProxyAgent,掌握各组件的角色与配置方法;

  2. 多Agent协作:主从模式、平权协商模式的实现,任务分配、通信协议、冲突仲裁逻辑;

  3. 工程落地:使用AutoGen搭建多Agent协同系统(如对话Agent+工具Agent),实现任务协同;

  4. 与LangChain对比:掌握两者的架构差异、适用场景,能根据需求选型。

三、线上学习资源

  • 官方文档:AutoGen官方文档(含快速入门、示例代码);

  • 实操教程:AutoGen官方Demo(多Agent协同案例)、GitHub「AutoGen实战项目」;

  • 视频教程:B站「AutoGen多Agent协同开发教程」;

  • 论文:《AutoGen: Enabling Next-Generation LLM Applications via Multi-Agent Conversation》。

模块7:AI Coding

一、核心内容

AI Coding是AI Agent岗位的工程基础能力,指利用AI工具(如Copilot、CodeGeeX)提升代码开发效率,同时掌握Agent开发相关的编码规范、调试技巧,适配岗位“熟练使用主流AI Coding工具”的要求。

二、学习重点

  1. 工具使用:熟练掌握Copilot、CodeGeeX等AI Coding工具,能利用工具生成Agent相关代码(如Tool封装、函数调用);

  2. 编码规范:遵循Python/TypeScript/Go编码规范(重点Python),注重代码可读性、可维护性;

  3. 调试技巧:Agent代码调试(如工具调用失败、上下文丢失)、LLM调用异常处理;

  4. 高效开发:利用AI工具优化代码、排查Bug,提升Agent开发效率。

三、线上学习资源

  • 工具教程:Copilot官方文档、CodeGeeX使用指南;

  • 编码规范:Python PEP8规范、Go编码规范(线上文档);

  • 实操教程:B站「AI Coding工具实战(Agent开发场景)」;

  • 代码参考:GitHub「Agent开发优秀代码示例」(学习编码思路)。

模块8:本地部署

一、核心内容

本地部署是Agent工程落地的重要能力,指将Agent系统、LLM模型、向量数据库等组件部署到本地环境,实现离线运行、隐私保护,适配企业内部Agent部署需求,也是岗位加分项。

二、学习重点

  1. 环境搭建:本地Python环境配置、依赖包安装(LangChain、AutoGen等);

  2. 模型本地部署:开源LLM模型(如Llama 2、Qwen)的本地部署,使用FastAPI封装模型接口;

  3. 组件部署:向量数据库(Chroma)本地部署、Agent系统本地运行与调试;

  4. 优化方向:本地部署性能优化(模型量化、资源分配)、离线运行稳定性保障。

三、线上学习资源

  • 实操教程:B站「LLM模型本地部署完整教程」「Chroma本地部署指南」;

  • 文档:FastAPI官方文档(模型接口封装)、Llama 2/Qwen官方部署指南;

  • 开源项目:GitHub「本地Agent部署示例」(含完整部署流程);

  • 工具:Ollama(简化开源模型本地部署)官方文档。

模块9:模型蒸馏

一、核心内容

模型蒸馏是将大模型(Teacher Model)的知识迁移到小模型(Student Model)的技术,核心目的是降低模型体积、减少算力消耗,适配Agent轻量化部署(如边缘端、移动端),是Agent性能优化的重要方向。

二、学习重点

  1. 核心原理:利用大模型的输出(软标签)训练小模型,保留大模型的核心能力,同时降低模型复杂度;

  2. 关键步骤:数据准备、蒸馏策略(知识蒸馏、量化蒸馏)、模型训练、性能评估;

  3. Agent适配:将蒸馏后的小模型集成到Agent系统,优化Agent响应速度、降低部署成本;

  4. 工具使用:掌握PyTorch、TensorFlow等框架实现模型蒸馏。

三、线上学习资源

  • 论文:《Distilling the Knowledge in a Neural Network》(经典蒸馏论文);

  • 线上课程:Coursera《深度学习专项课程》(模型优化章节);

  • 实操教程:GitHub「LLM模型蒸馏实战」(含代码示例);

  • 视频教程:B站「模型蒸馏从理论到实操」。

模块10:模型微调

一、核心内容

模型微调是通过少量领域数据,调整LLM模型参数,让模型适配特定Agent场景(如元宝对话、行业工具调用),提升Agent决策准确性与场景适配性,是Agent个性化优化的核心技术。

二、学习重点

  1. 微调类型:全参数微调、LoRA微调(重点,高效、低算力)、QLoRA微调;

  2. 关键步骤:数据准备(场景化数据标注)、微调环境搭建、参数设置、模型训练、评估与部署;

  3. Agent适配:针对Agent对话、工具调用等场景,微调模型以提升Prompt理解、函数调用准确性;

  4. 工具使用:掌握Hugging Face Transformers、PEFT等工具实现模型微调。

三、线上学习资源

  • 官方文档:Hugging Face Transformers官方文档(微调章节)、PEFT官方文档;

  • 线上课程:DeepLearning.AI《LLM微调实战》;

  • 实操教程:GitHub「LLM LoRA微调实战」(含Agent场景数据示例);

  • 视频教程:B站「LLM模型微调从入门到精通」(重点LoRA微调)。

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐