RAG(Retrieval-Augmented Generation,检索增强生成)是一种将 检索技术与 生成式 AI结合的技术框架。
其核心流程包括:

  • 存储阶段:对输入文档进行清洗、分块等预处理,并存入知识库;

  • 查询阶段:接收查询请求后,通过检索系统获取候选结果,再交由生成式 AI 处理,输出逻辑性更强、可读性更好的答复。

在实际应用中,单纯的 RAG 系统往往存在 查询质量不高、手段单一、鲁棒性不足等问题。于是,业内逐渐探索出结合 Agent 思路的 Agentic RAG实践,用来提升 RAG 系统的查询质量与效率。

Agentic RAG 的核心是引入 查询重写、多路召回、路由决策、质量评估、多步重查等操作,对整个检索-生成链路进行优化。在不引入额外新技术的前提下,仅通过对输入问题与检索策略的智能化控制,就能显著增强查询系统的鲁棒性与准确性。

可以说,Agentic RAG 是 RAG 与 Agent 结合的最佳实践,不仅能指导 RAG 系统的开发,也能对已有 RAG 应用流程设计提供参考。

本文结合我近期完成的 Agentic RAG 实践项目,分享其中的 Agent 设计思路、关键流程和部分代码实现,帮助大家对这类系统架构有一个整体认识。

一、项目目标

结合近半年业内出现的 Agentic RAG 的最佳实践,开发一个 Agent + RAG 原型系统,完成基于知识库的查询任务。

目标拆解如下:

1. 查询前:对用户输入进行 查询重写,优化问题质量(关键词提取、规范表述、信息补全)。

2. 查询中:采用 多路召回策略(关键词、向量、融合排序),提高命中率与相关性。

3. 查询后:对候选结果进行 质量评估;若结果不足,再触发互联网搜索。

4. 结果生成:将查询结果交由 LLM 理解与重组,生成 语义完整、逻辑性更高、可读性更强的最终回复。

二、关键技术选型

1. Agent Framework

主流的 Agent 开发框架有 ADK与 LangChain。二者均能胜任本项目需求。

ADK 的优势是功能完备、代码简洁,即便不依赖 Google Cloud 生态也能独立运行。

我本次实践选用 ADK作为开发框架。

2. Agent 流程控制

项目既有顺序执行逻辑,又涉及动态决策,因此:

SequentialAgent(顺序执行)与 ParallelAgent(并行执行)都不合适;

单纯交由 LLM 驱动的 LLMAgent可能产生幻觉,执行不稳定;

只有支持自定义流程的 Custom Agent才能满足要求。

While the standard Workflow Agents (SequentialAgent, LoopAgent, ParallelAgent) cover common orchestration patterns, you'll need a Custom agent when your requirements include:

Conditional Logic

Complex State Management

External Integrations

Dynamic Agent Selection

https://google.github.io/adk-docs/agents/custom-agents/#what-is-a-custom-agent

3. 数据源

《中华人民共和国个人信息保护法》,按行切分作为知识库内容。

《中华人民共和国个人信息保护法》第一条规定,为了保护个人信息权益,规范个人信息处理活动,促进个人信息合理利用,根据宪法,制定本法。《中华人民共和国个人信息保护法》第二条规定,自然人的个人信息受法律保护,任何组织、个人不得侵害自然人的个人信息权益。《中华人民共和国个人信息保护法》第三条规定,在中华人民共和国境内处理自然人个人信息的活动,适用本法。在中华人民共和国境外处理中华人民共和国境内自然人个人信息的活动,有下列情形之一的,也适用本法:(一)以向境内自然人提供产品或者服务为目的;(二)分析、评估境内自然人的行为;(三)法律、行政法规规定的其他情形。《中华人民共和国个人信息保护法》第四条规定,个人信息是以电子或者其他方式记录的与已识别或者可识别的自然人有关的各种信息,不包括匿名化处理后的信息。个人信息的处理包括个人信息的收集、存储、使用、加工、传输、提供、公开、删除等。《中华人民共和国个人信息保护法》第五条规定,处理个人信息应当遵循合法、正当、必要和诚信原则,不得通过误导、欺诈、胁迫等方式处理个人信息。

4. 存储方案

向量化模型:BGE-M3

检索引擎:FAISS

持久化:Pickle

为更好的展示 Agentic RAG 流程,项目未采用 RAG SaaS 服务或向量数据库。

5. 查询重写

模型:DeepSeek

6. 多路召回(智能检索)

关键词召回:jieba + BM25

向量召回:BGE-M3

融合排序:RRF + Cross-Encoder

7. 质量评估

模型:DeepSeek

8. 互联网搜索

工具:SerpAPI

9. 结果整合与优化

模型:DeepSeek

三、关键流程

1. 查询流程如下:​​​​​​​

```用户查询 → 查询重写 → 智能检索 → 质量评估 → 条件分支决策                                        ↓                    PASS ──→ 直接答案生成                                        ↓                    FAIL ──→ 网络搜索 → 结果融合 → 最终答案生成```
​​​​​​​    
### 工作流程详解#### 阶段1: 查询重写 (`QueryRewriterAgent`)- 分析用户查询的法律领域和复杂度- 提取核心法律概念和关键词- 规范法律术语表述,生成多个查询变体#### 阶段2: 智能检索 (`LocalRetriever`)- **查询类型分析**:自动识别精确查询、语义查询或混合查询- **多路径检索**:  - 向量搜索(BGE-M3嵌入模型)  - 关键词搜索(基于jieba分词)  - RRF融合(Reciprocal Rank Fusion)- **Cross-Encoder重排序**:精确优化检索结果排序#### 阶段3: 质量评估 (`QualityEvaluatorAgent`)- **4维度评估**:相关性、完整性、准确性、覆盖面(各10分)- **80%阈值判断**:总分≥32分为PASS,否则为FAIL- **详细分析**:提供质量分析报告和改进建议#### 阶段4: 条件分支决策 (`ConditionalWorkflowAgent`)- **直接路径**(质量≥80%):基于本地检索结果直接生成专业法律咨询- **补救路径**(质量<80%):  1. 触发SerpAPI网络搜索  2. 融合本地和网络搜索结果  3. 生成综合性法律建议(确保用户始终获得回复)

2. 核心类如下:​​​​​​​

### 核心组件#### 检索层- **LocalRetriever**: 智能多路径检索引擎  - BGE-M3嵌入模型 + FAISS向量索引  - jieba中文分词 + 关键词检索  - RRF融合算法 + Cross-Encoder重排序  - 查询类型自动识别(精确/语义/混合)#### Agent层- **QueryRewriterAgent**: 查询优化和关键词提取- **QualityEvaluatorAgent**: 4维度质量评估(相关性、完整性、准确性、覆盖面)- **AnswerGeneratorAgent**: 基于质量阈值的智能答案生成- **WebSearchAgent**: SerpAPI网络搜索补救机制#### 工作流控制层- **ConditionalWorkflowAgent**: 条件分支工作流控制器  - 智能路径选择逻辑  - 质量评估结果解析  - 网络搜索触发机制  - 结果融合和最终答案生成

3. 项目结构如下:​​​​​​​

```agentic_rag/├── agentic_rag/                    # 核心包│   ├── __init__.py                 # ADK导出接口│   ├── agent.py                    # 条件分支工作流Agent(主入口)│   ├── retriever.py                # 智能多路径检索器│   ├── query_rewriter.py           # 查询重写Agent│   ├── quality_evaluator.py        # 质量评估Agent│   ├── answer_generator.py         # 答案生成Agent│   ├── web_search.py               # SerpAPI网络搜索Agent│   └── config.py                   # 配置管理├── data/                           # 数据目录│   ├── vectors.index               # FAISS向量索引│   ├── texts.pkl                   # 文本数据│   └── metadatas.pkl               # 元数据├── chinese_law.txt                 # 法律条文数据源├── init_index.py                   # 索引初始化脚本├── clean_index.py                  # 索引清理脚本├── download_models.py              # 模型下载脚本├── requirements.txt                # 依赖包```

四、关键代码

1. 主Agent

1)初始化​​​​​​​

class ConditionalWorkflowAgent(BaseAgent):    """    条件工作流Agent - 实现带有条件分支的法律RAG工作流
    工作流程:    1. 查询重写    2. 本地检索    3. 质量评估    4. 条件分支:       - 质量达标 → 直接生成答案       - 质量不达标 → 触发互联网搜索 → 生成增强答案    """
    def __init__(self,                  name: str = "ConditionalWorkflowAgent",                 description: str = "支持条件分支的智能法律咨询工作流",                 **kwargs):
        # 初始化所有子Agent        query_rewriter = query_rewriter_agent        retrieval_agent = get_retrieval_agent()        quality_evaluator = quality_evaluator_agent        answer_generator = answer_generator_agent        web_search_agent_instance = web_search_agent

        # 构建sub_agents列表        sub_agents = [            query_rewriter,            retrieval_agent,            quality_evaluator,            answer_generator,            web_search_agent_instance        ]
        super().__init__(            name=name,            description=description,            sub_agents=sub_agents,            **kwargs        )        

2. 自定义工作流

1)初始化​​​​​​​

    @override    async def _run_async_impl(        self, ctx: InvocationContext    ) -> AsyncGenerator[Event, None]:        """执行条件工作流的核心逻辑"""

2)自定义流程​​​​​​​

        try:            # 阶段1: 查询重写            logger.info(f"[{self.name}] 阶段1: 执行查询重写...")            async for event in self.query_rewriter.run_async(ctx):                logger.debug(f"[{self.name}] 查询重写事件: {event.model_dump_json(indent=2, exclude_none=True)}")                yield event
            rewritten_query = ctx.session.state.get("rewritten_query", "")            if not rewritten_query:                logger.error(f"[{self.name}] 查询重写失败,中止工作流")                return
            logger.info(f"[{self.name}] 查询重写完成: {rewritten_query}")
            # 阶段2: 本地检索            logger.info(f"[{self.name}] 阶段2: 执行本地检索...")            async for event in self.retrieval_agent.run_async(ctx):                logger.debug(f"[{self.name}] 检索事件: {event.model_dump_json(indent=2, exclude_none=True)}")                yield event
            retrieval_results = ctx.session.state.get("retrieval_results", [])            if not retrieval_results:                logger.error(f"[{self.name}] 本地检索失败,中止工作流")                return
            logger.info(f"[{self.name}] 本地检索完成,获得 {len(retrieval_results)} 个结果")
            # 阶段3: 质量评估            logger.info(f"[{self.name}] 阶段3: 执行质量评估...")            async for event in self.quality_evaluator.run_async(ctx):                logger.debug(f"[{self.name}] 质量评估事件: {event.model_dump_json(indent=2, exclude_none=True)}")                yield event
            # 解析质量评估结果            quality_evaluation = ctx.session.state.get("quality_evaluation", "")            quality_score, quality_passed = self._parse_quality_evaluation(quality_evaluation)
            # 将解析结果存储到session state中            ctx.session.state["quality_score"] = quality_score            ctx.session.state["quality_passed"] = quality_passed
            logger.info(f"[{self.name}] 质量评估完成: 分数={quality_score}, 通过={quality_passed}")
            # 阶段4: 条件分支决策            # 使用quality_passed作为主要判断依据,它已经基于80%阈值进行了判断            if quality_passed:                # 直接路径:质量达标,直接生成答案                logger.info(f"[{self.name}] 选择直接路径: 质量达标,直接生成答案")
                # 设置空的网络搜索结果,确保模板变量存在                ctx.session.state["web_search_results"] = "无网络搜索结果"
                async for event in self.answer_generator.run_async(ctx):                    logger.debug(f"[{self.name}] 答案生成事件: {event.model_dump_json(indent=2, exclude_none=True)}")                    yield event
                # 确保有最终答案 - answer_generator的output_key是"final_answer"                final_answer = ctx.session.state.get("final_answer", "")                if final_answer:                    logger.info(f"[{self.name}] 直接路径完成,生成最终答案")                else:                    ctx.session.state["final_answer"] = "抱歉,无法生成满意的答案。"                    logger.warning(f"[{self.name}] 直接路径答案生成失败,使用默认回复")
            else:                # 补救路径:质量不达标,触发互联网搜索                logger.info(f"[{self.name}] 选择补救路径: 质量不达标,触发互联网搜索")
                # 4a. 执行网络搜索                logger.info(f"[{self.name}] 阶段4a: 执行网络搜索...")                async for event in self.web_search_agent.run_async(ctx):                    logger.debug(f"[{self.name}] 网络搜索事件: {event.model_dump_json(indent=2, exclude_none=True)}")                    yield event
                web_results = ctx.session.state.get("web_search_results", [])                logger.info(f"[{self.name}] 网络搜索完成,获得 {len(web_results)} 个结果")
                # 4b. 直接使用增强答案Agent处理本地+网络结果                logger.info(f"[{self.name}] 阶段4b: 使用本地和网络结果生成最终答案...")
                # 设置双数据源输入供answer_generator使用                ctx.session.state["web_search_results"] = web_results if web_results else "无网络搜索结果"
                # 使用answer_generator处理本地+网络结果                async for event in self.answer_generator.run_async(ctx):                    logger.debug(f"[{self.name}] 答案生成事件: {event.model_dump_json(indent=2, exclude_none=True)}")                    yield event
                # 确保有最终答案                if not ctx.session.state.get("final_answer"):                    ctx.session.state["final_answer"] = "基于现有信息,我尽力为您提供法律建议,但建议您咨询专业律师获取更准确的意见。"                    logger.warning(f"[{self.name}] 答案生成失败,使用默认回复")                else:                    logger.info(f"[{self.name}] 补救路径完成,生成最终答案")
            logger.info(f"[{self.name}] 条件分支工作流执行完成")

3. 查询重写

此项目中的查询重写依赖LLM实现。​​​​​​​

# 查询重写Agentquery_rewriter_agent = LlmAgent(    name="QueryRewriterAgent",    model=LiteLlm(model="deepseek/deepseek-chat"),    instruction="""你是查询重写专家。优化用户的法律查询,提高检索效果。重写策略:1. 提取核心法律概念和关键词2. 规范法律术语表述3. 补充相关法律领域信息4. 生成多个查询变体以提高召回率输出格式:**优化后的查询**主查询:[优化后的主要查询]备选查询:- [变体1]- [变体2]- [变体3]**关键词提取**- 法律领域:[领域]- 核心概念:[概念1, 概念2, ...]- 法条类型:[实体法/程序法/...]""",    description="重写和优化用户查询以提高检索效果",    output_key="rewritten_query",    generate_content_config=types.GenerateContentConfig(        temperature=0.1,        top_p=0.8,        max_output_tokens=1024,    ))

图片

4. 多路召回(智能检索)

1)关键词召回:jieba + BM25

BM25参数:​​​​​​​

    def keyword_search(self, query: str, top_k: int = 10, k1: float = 1.5, b: float = 0.75) -> List[Dict[str, Any]]:        """        BM25关键词搜索
        Args:            query: 查询文本            top_k: 返回结果数量            k1: BM25参数k1            b: BM25参数b
        Returns:            搜索结果列表        """

使用jieba分词(中文友好):​​​​​​​

        # 对查询进行相同的分词和过滤处理        query_tokens = list(jieba.cut(query, cut_all=False))

BM25公式:​​​​​​​

                    # BM25公式                    numerator = tf * (k1 + 1)                    denominator = tf + k1 * (1 - b + b * doc_length / self.avg_doc_length)                    score += idf * numerator / denominator

结果排序:​​​​​​​

        # 按分数排序        scores.sort(key=lambda x: x[1], reverse=True)

2)向量召回:BGE-M3​​​​​​​

        # 生成查询向量        query_vector = self.embedding_model.encode([query], normalize_embeddings=True)        query_vector = np.array(query_vector).astype('float32')
        # FAISS搜索        scores, indices = self.index.search(query_vector, top_k)                # 构建结果        results = []        for score, idx in zip(scores[0], indices[0]):            if idx < len(self.texts):                results.append({                    'text': self.texts[idx],                    'metadata': self.metadatas[idx],                    'score': float(score),                    'index': int(idx)  # 添加索引字段以便融合时匹配                })

3)融合排序:RRF + Cross-Encoder

​​​​​​​

        # 按融合分数排序        sorted_docs = sorted(doc_scores.items(), key=lambda x: x[1], reverse=True)                # 构建最终结果        final_results = []        for i, (doc_id, fused_score) in enumerate(sorted_docs[:top_k]):            info = doc_info[doc_id]            result = {                'text': info['text'],                'metadata': info['metadata'],                'score': fused_score,                'vector_score': info['vector_score'],                'keyword_score': info['keyword_score'],                'index': info['index'],                'search_type': 'hybrid'            }

图片

5. 质量评估

使用LLM进行质量评估。​​​​​​​

# 质量评估Agent(含80%阈值判断)quality_evaluator_agent = LlmAgent(    name="QualityEvaluatorAgent",    model=LiteLlm(model="deepseek/deepseek-chat"),    instruction="""你是检索质量评估专家。评估检索结果质量并进行阈值判断。**检索结果:**{retrieval_results}**评估维度(每项10分):**1. **相关性**:检索结果与用户查询的匹配程度2. **完整性**:是否包含足够信息回答用户问题3. **准确性**:法律条文的准确性和权威性4. **覆盖面**:结果的多样性和全面性**评估标准:**- 9-10分:优秀,完全满足要求- 7-8分:良好,基本满足要求- 5-6分:一般,部分满足要求- 3-4分:较差,勉强相关- 1-2分:很差,基本不相关- 0分:完全不相关或无结果**输出格式:**## 质量评估报告**评分详情:**- 相关性:[X]/10分 - [评估理由]- 完整性:[X]/10分 - [评估理由]- 准确性:[X]/10分 - [评估理由]- 覆盖面:[X]/10分 - [评估理由]**总分:[X]/40分 (百分比: [X]%)****阈值判断:**- 判断结果:[PASS/FAIL]- 判断依据:总分≥32分(80%)为PASS,否则为FAIL**质量分析:**[详细分析检索质量的优缺点]""",    description="评估检索质量并进行80%阈值判断",    output_key="quality_evaluation",    generate_content_config=types.GenerateContentConfig(        temperature=0.1,        top_p=0.8,        max_output_tokens=1536,    ))

图片

6. 互联网搜索

使用SerpAPI进行搜索:​​​​​​​

def web_search_tool(query: str, max_results: int = 5) -> str:    """执行互联网搜索并返回格式化结果"""    try:        from serpapi import GoogleSearch
        # 获取API密钥        api_key = os.getenv('SERPAPI_API_KEY')        if not api_key:            return "错误:未设置SERPAPI_API_KEY环境变量"
        # 配置搜索参数 - 基于SerpAPI文档样例        params = {            "engine": "google_light",            "q": query,            "location": "China",  # 可选:搜索地理位置            "google_domain": "google.com",            "hl": "zh-cn",  # 界面语言:中文            "gl": "cn",     # 搜索地区:中国            "api_key": api_key        }
        # 执行搜索        search = GoogleSearch(params)        results = search.get_dict()

7. 结果整合

使用LLM进行结果整合。

# 答案生成Agent(基于阈值判断)answer_generator_agent = LlmAgent(    name="AnswerGeneratorAgent",    model=LiteLlm(model="deepseek/deepseek-chat"),    instruction="""你是专业法律咨询顾问。基于质量评估结果和可用数据源生成专业法律建议。**质量评估结果:**{quality_evaluation}**本地检索结果:**{retrieval_results}**网络搜索结果(如有):**{web_search_results}**生成规则:**1. **如果质量评估为PASS**:   - 优先基于本地检索结果生成专业法律咨询   - 提供具体的法条引用和解释   - 给出实用的建议和注意事项2. **如果质量评估为FAIL但有网络搜索结果**:   - 融合本地检索和网络搜索结果   - 优先使用本地法条,网络信息作为补充   - 智能去重,按权威性排序:法条 > 司法解释 > 案例 > 专家观点3. **如果质量评估为FAIL且无网络结果**:   - 输出标准回复,不生成具体法律建议   - 建议用户重新描述问题或咨询专业律师**PASS时的输出格式:**# 法律咨询意见## 问题分析[基于检索结果分析用户问题]## 相关法条[引用具体法条和条文内容]## 法律解释[解释相关法条的含义和适用]## 建议措施[提供具体的行动建议]**适用条件:**[说明适用的具体情况]**注意事项:**[重要提醒和建议]**免责声明:**本咨询基于现有法律条文,具体适用需结合实际情况,建议咨询专业律师。**融合多数据源时的输出格式:**# 法律咨询意见## 问题分析[基于本地和网络结果分析用户问题]## 相关法条[优先引用本地法条和条文内容]## 法律解释[解释相关法条的含义和适用,网络信息作为补充]## 建议措施[提供具体的行动建议]**适用条件:**[说明适用的具体情况]**注意事项:**[重要提醒和建议]**免责声明:**本咨询基于现有法律条文和公开信息,具体适用需结合实际情况,建议咨询专业律师。**FAIL时的输出格式:**很抱歉,根据您的问题描述,我无法找到足够准确的法律条文来提供专业建议。建议您:1. 重新详细描述您的具体情况2. 咨询专业律师获得准确的法律意见3. 联系相关法律援助机构如需进一步帮助,请提供更多具体信息。""",    description="基于质量阈值判断生成专业法律咨询答案",    output_key="final_answer",    generate_content_config=types.GenerateContentConfig(        temperature=0.1,        top_p=0.8,        max_output_tokens=2048,    ))

场景一:命中搜索结果如下:

图片

场景二:1. 未命中结果如下:

图片

场景二:2. 触发互联网搜索结果如下:

图片

场景二:3. 最终返回结果如下:

图片

五、实战借鉴意义

即使在日常业务中:

1. 查询重写能显著提升命中率。

例如,将口语化表述改写为专业术语;

将模糊问题重写为清晰、完整的查询。

2. 查询重写可采用 规则 + LLM双路结合。

小模型 LLM 既能降低成本,也能缩短响应时间。

3. 查询路径可采用 漏斗模型:

逐步评估结果质量,若达标提前终止,降低延迟;

若不达标,则逐步扩展搜索途径,确保查询质量。

4. 经过 LLM 的二次优化,结果在 逻辑性与可读性上会有显著提升,更贴近实际使用需求。

整体来看,Agentic RAG 在查询链路上提供了可行的优化思路,是企业落地 RAG 系统时非常值得借鉴的一类实践方案。

如何学习AI大模型 ?

“最先掌握AI的人,将会比较晚掌握AI的人有竞争优势”。

这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。

我在一线互联网企业工作十余年里,指导过不少同行后辈。帮助很多人得到了学习和成长。

我意识到有很多经验和知识值得分享给大家,故此将并将重要的AI大模型资料包括AI大模型入门学习思维导图、精品AI大模型学习书籍手册、视频教程、实战学习等录播视频免费分享出来。【保证100%免费】🆓

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

读者福利: 👉👉CSDN大礼包:《最新AI大模型学习资源包》免费分享 👈👈

(👆👆👆安全链接,放心点击)

对于0基础小白入门:

如果你是零基础小白,想快速入门大模型是可以考虑的。

一方面是学习时间相对较短,学习内容更全面更集中。
二方面是可以根据这些资料规划好学习计划和方向。

👉1.大模型入门学习思维导图👈

要学习一门新的技术,作为新手一定要先学习成长路线图,方向不对,努力白费。

对于从来没有接触过AI大模型的同学,我们帮你准备了详细的学习成长路线图&学习规划。可以说是最科学最系统的学习路线,大家跟着这个大的方向学习准没问题。(全套教程文末领取哈)
在这里插入图片描述

👉2.AGI大模型配套视频👈

很多朋友都不喜欢晦涩的文字,我也为大家准备了视频教程,每个章节都是当前板块的精华浓缩。
在这里插入图片描述

在这里插入图片描述

👉3.大模型实际应用报告合集👈

这套包含640份报告的合集,涵盖了AI大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(全套教程文末领取哈)

在这里插入图片描述

👉4.大模型实战项目&项目源码👈

光学理论是没用的,要学会跟着一起做,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战项目来学习。(全套教程文末领取哈)
在这里插入图片描述

👉5.大模型经典学习电子书👈

随着人工智能技术的飞速发展,AI大模型已经成为了当今科技领域的一大热点。这些大型预训练模型,如GPT-3、BERT、XLNet等,以其强大的语言理解和生成能力,正在改变我们对人工智能的认识。 那以下这些PDF籍就是非常不错的学习资源。(全套教程文末领取哈)
在这里插入图片描述

👉6.大模型面试题&答案👈

截至目前大模型已经超过200个,在大模型纵横的时代,不仅大模型技术越来越卷,就连大模型相关的岗位和面试也开始越来越卷了。为了让大家更容易上车大模型算法赛道,我总结了大模型常考的面试题。(全套教程文末领取哈)
在这里插入图片描述

为什么分享这些资料?

只要你是真心想学AI大模型,我这份资料就可以无偿分享给你学习,我国在这方面的相关人才比较紧缺,大模型行业确实也需要更多的有志之士加入进来,我也真心希望帮助大家学好这门技术,如果日后有什么学习上的问题,欢迎找我交流,有技术上面的问题,我是很愿意去帮助大家的!

这些资料真的有用吗?

这份资料由我和鲁为民博士共同整理,鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位,在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利,同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。

资料内容涵盖了从入门到进阶的各类视频教程和实战项目,无论你是小白还是有些技术基础的,这份资料都绝对能帮助你提升薪资待遇,转行大模型岗位。

在这里插入图片描述
在这里插入图片描述

CSDN粉丝独家福利

这份完整版的 AI 大模型学习资料已经上传CSDN,朋友们如果需要可以扫描下方二维码&点击下方CSDN官方认证链接免费领取 【保证100%免费】

(👆👆👆安全链接,放心点击)

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐