AI Agent案例实践:三种智能体开发模式详解之一(手写代码)
本文是Chaiys同学基于一个简单业务场景详细描述的AI Agent开发实践案例,可以用于熟悉RAG、工具调用、ReAct等概念,可以体验LangChain和QwenAgent等AI Agent主流开发框架。
在大模型与智能体应用场景层出不穷的今天,作为一名不断学习的信息化数字化从业者,我们可以实践一下AI Agent基本开发流程,理论联系实践,以加深我们对AI Agent的了解。
本文是Chaiys同学基于一个简单业务场景详细描述的AI Agent开发实践案例,可以用于熟悉RAG、工具调用、ReAct等概念,可以体验LangChain和QwenAgent等AI Agent主流开发框架。
一、案例描述
1.1. 业务场景
这里我们设计一个简单的场景:2025年,一位高三的同学在高考结束之后,借助AI Agent简单的查询了解一下2016年到2024的考生人数、录取人数、复读人数、普通高校数量、本科录取人数、专科录取人数这些基本信息,对历年高考考生规模做一个基本了解,借助小助手做一个简单分析预测。
基于这个场景,我们梳理一下我们的Agent需要实现的功能:用户输入自然语言查询高考录取相关信息,Agent自动生成查询SQL,查询完毕后附带简要分析输出,具体如下:
- 结构化的数据需要后台运维,进行持久化存储,采用Mysql存储,涉及多张表的数据;
- 元数据结构采用ElasticSearch8存储,可向量化KNN匹配;
- 自然语言解析出查询SQL需要借助大模型匹配元数据结构,然后编写提示词生成SQL;
- 生成的SQL需要到Mysql查询数据;
- 查询完毕的数据还需要借助大模型分析一下返回。
1.2. 数据准备
对于高考信息,我们需要存储到Mysql的结构化的表中,以便搜索查询数据,表结构如下:
droptable college_entrance_examination;
droptable college_entrance_admission;
createtable college_entrance_examination (
examination_year integerNOTNULL COMMENT '高考年份',
candidates_count decimal(10,2) NOTNULL COMMENT '考生人数(万人)',
retake_count decimal(10,2) COMMENT '复读人数(万人)',
primary key (examination_year)
) comment '考生人数与复读人数信息表,包含字段:高考年份(主键)、考生人数(万人)、复读人数(万人)';
createtable college_entrance_admission (
admission_year integerNOTNULL COMMENT '录取年份',
admission_count decimal(10,2) NOTNULL COMMENT '录取人数(万人)',
university_count integer COMMENT '普通高中招生高校数',
undergraduate_admission_count decimal(10,2) COMMENT '本科录取人数(万人)',
specialty_admission_count decimal(10,2) COMMENT '专科录取人数(万人)',
primary key (admission_year)
) comment '录取人数与普通高校数信息表,包含字段:录取年份(主键)、录取人数(万人)、普通高中招生高校数、本科录取人数(万人)、专科录取人数(万人)';
数据如下:
insertinto college_entrance_examination(
examination_year,candidates_count,retake_count
) values
(2016,940,117),
(2017,940,143.39),
(2018,975,172.1),
(2019,1031,230.95),
(2020,1071,242.2),
(2021,1078,187),
(2022,1193,316.56),
(2023,1291,210),
(2024,1342,413)
;
insertinto college_entrance_admission(
admission_year,admission_count,university_count,
undergraduate_admission_count,specialty_admission_count
) values
(2016,772,2595,405,367),
(2017,761.49,2631,410,351),
(2018,790.99,2663,422,369),
(2019,820,2688,431,389),
(2020,967.45,2740,443,524.45),
(2021,1001.32,2759,448.74,552.58),
(2022,1014.54,2760,467.18,547.36),
(2023,1058.21,2820,482.89,575.32),
(2024,1068.9,2868,478.16, 590.74)
;
注:上述高考考生基本数据来源于互联网、教育局网站。
注:具体业务上可能远远不止一个数据源、两张表,需要根据用户问题使用RAG检索匹配具体使用哪个数据源的哪个表,本次实践仅仅使用两张表模拟多数据源的业务场景,为语义匹配流程开发做一个学习与了解!
接下来我们分别用手写代码、基于LangChain框架、基于QwenAgent框架等三种不同的模式进行AI Agent的实践探索。
二、开发实践(手写代码)
2.1. 总体架构
1、API服务(API Service)对智能体提供类似MCP的工具服务;
2、智能体(AI Data Analysis Agent)对用户输入的自然语言查数进行回答,执行过程中调用相应的API服务;
3、同时智能体具有简单的容错流程:未匹配到元数据时结束流程并进行提示、生成的SQL未查询到数据时结束流程并进行提示;
2.2. 实现流程
按照我们上面的核心业务梳理实现流程,手写一个Workflow,主要是根据用户问题,先匹配数据源的表结构,再生成SQL、查数和分析。
2.3. 智能体代码实践
具体开发实现如下(agent_service.py):
import sys
import re
import json
from api_service import QueryService,SemanticServce,AnalysisService
# metadata init 元数据初始向量化过程
definit():
print("开始执行方法init")
queryService = QueryService()
semanticService = SemanticServce()
# 1. 从mysql中获取表结构元数据信息
results = queryService.query(
"""
SELECT
t.TABLE_NAME AS '表名',
t.TABLE_COMMENT AS '表备注',
c.COLUMN_NAME AS '字段名',
c.COLUMN_TYPE AS '字段类型',
c.COLUMN_COMMENT AS '字段备注'
FROM
INFORMATION_SCHEMA.TABLES t
INNER JOIN
INFORMATION_SCHEMA.COLUMNS c
ON t.TABLE_NAME = c.TABLE_NAME AND t.TABLE_SCHEMA = c.TABLE_SCHEMA
WHERE
t.TABLE_SCHEMA = 'chaiys'
and t.table_name in ('college_entrance_admission','college_entrance_examination')
ORDER BY
t.TABLE_NAME,
c.ORDINAL_POSITION
"""
)
table_data = {}
for row in results:
table_name = row[0]
if table_name notin table_data:
table_data[table_name] = {
'表名': table_name,
'表备注': row[1],
'字段列表': []
}
# 添加字段信息
table_data[table_name]['字段列表'].append({
'字段名': row[2],
'字段类型': row[3],
'字段备注': row[4]
})
print(table_data)
semanticService.create_index()
# 转换为列表形式
for table_name inlist(table_data.keys()):
table = table_data[table_name]
# 2. 向量化表结构元数据信息并插入ES索引
semanticService.vectorize_and_index(table_name, json.dumps(table, ensure_ascii=False))
# agent flow 智能体核心流程
defchat(user_query):
print("执行方法chat")
queryService = QueryService()
semanticService = SemanticServce()
analysisService = AnalysisService()
# 1. 语义匹配
table = semanticService.hybrid_search(user_query, 1)
ifnot table:
print(f"未匹配到字段")
return
table_list = [t["table_info"] for t in table]
prompt = f"""
你是一个MySQL专家。根据以下表结构信息:
{table_list}
用户查询:"{user_query}"
生成标准MYSQL查询语句。
要求:
1. 只输出MYSQL语句,不要额外解释
2. 根据语义和字段类型,使用COUNT/SUM/AVG等聚合函数进行计算,非必须
3. 给生成的字段取一个简短的中文名称
输出格式:使用[]包含sql文本即可,不需要其他输出,便于解析,例如:[select 1 from dual]
"""
print(f"PROMPT={prompt}")
# 2. 大模型生成SQL
str1 = analysisService.analysis(prompt)
sql = re.search(r'\[(.*?)\]', str1, re.DOTALL).group(1).strip()
# 3. 执行查询
if sql:
resultSet = queryService.query_with_column(sql)
print(f"resultSet={resultSet}")
# 基础分析
prompt2 = f"""
根据以下表结构信息:
{table_list}
查询SQL:
{sql}
和以下数据信息:
{resultSet}
用户查询:"{user_query}"
生成一段简要分析,加上一些预测总结的内容
"""
print(f"PROMPT={prompt2}")
analysisService.analysis(prompt2)
if __name__ == "__main__":
# 获取命令行参数
args = sys.argv[1:] # 第一个参数是脚本名,跳过
ifnot args:
print("请提供参数:init或者chat+user_query")
elif args[0] == "init":
init()
elif args[0] == "chat":
print(f"user_query={args[1]}")
chat(args[1])
else:
print(f"未知参数: {args[0]}")
2.4. API服务代码实践
这里的API服务,指的是为智能体的实现提供服务调用,文件名称api_service.py。
2.4.1. 语义检索服务(Semantics API)
语义服务有两个功能:
1、将元数据向量化到ES8,调用文本嵌入向量模型llama2向量化自然语言,生成4096高维向量;
2、自然语言匹配元数据返回,调用文本嵌入向量模型llama2向量化后,调用ES8使用KNN检索topK数据+分词检索topK数据,混合计算得分后返回最终topK,即简化版的外置检索增强生成(RAG);
具体开发实现如下:
import requests
import json
from elasticsearch import Elasticsearch
# Semantics API
classSemanticServce:
def__init__(self):
self.es_client = Elasticsearch(
hosts=["https://localhost:9200"],
basic_auth=("elastic", "FxCZQXMLEoZLAIvsghQy"),
ca_certs="./es_http_ca.crt",
verify_certs=True
)
# 向量化模型
self.ollama_host = "http://localhost:11434/api/embeddings"
self.metadata_index = "metadata_index"
self.modal_name = "llama2"
self.mapping = {
"mappings": {
"properties": {
"table_info": {
"type": "text",
"analyzer": "ik_max_word", # 中文分词
"search_analyzer": "ik_smart"
},
"nomic_embedding": {
"type": "dense_vector",
"dims": 4096,
"index": True,
"similarity": "cosine",
}
}
}
}
defget_embedding(self, text):
"""使用 Ollama 生成文本嵌入向量"""
try:
print(f"调用大模型llama2向量化:{text}")
response = requests.post(self.ollama_host, json={"model": self.modal_name, "prompt": text})
response.raise_for_status()
embedding = response.json()["embedding"]
return embedding
except Exception as e:
raise RuntimeError(f"嵌入生成失败: {str(e)}")
defdelete_index(self):
"""安全删除索引"""
try:
ifself.es_client.indices.exists(index=self.metadata_index):
self.es_client.indices.delete(index=self.metadata_index)
print(f"索引 {self.metadata_index} 删除成功")
returnTrue
returnNone
except Exception as e:
print(f"删除索引失败: {type(e).__name__}: {str(e)}")
returnFalse
defcreate_index(self):
self.delete_index()
"""创建支持nomic向量的索引"""
self.es_client.indices.create(index=self.metadata_index, body=self.mapping)
print(f"索引 {self.metadata_index} 创建成功")
defvectorize_and_index(self, prompt, content):
"""生成文本嵌入向量并插入索引"""
doc = {
"table_info": content,
"nomic_embedding": self.get_embedding(prompt)
}
self.es_client.index(index=self.metadata_index, document=doc)
self.es_client.indices.refresh(index=self.metadata_index)
print(f"表信息 {prompt}:{content} 向量化成功")
defsemantic_search(self, user_query, k):
"""执行语义相似度搜索"""
query_embedding = self.get_embedding(user_query)
knn_query = {
"knn": {
"field": "nomic_embedding",
"query_vector": query_embedding,
"k": k,
"num_candidates": 100# 这就是ef_search参数
},
"_source": ["table_info"] # 返回原始问题
}
response = self.es_client.search(index=self.metadata_index, body=knn_query)
table_info = [
{
"score": hit["_score"],
"table_info": hit["_source"]["table_info"],
"id": hit["_id"]
}
for hit in response["hits"]["hits"]
]
print(f"自然语言语义检索字段成功,匹配到的元数据信息:{table_info}")
return table_info
defkeyword_search(self, user_query: str, k) -> list:
"""基于分词的关键词匹配搜索"""
search_query = {
"query": {
"bool": {
"should": [
{
"match": {
"table_info": {
"query": user_query,
"analyzer": "ik_smart", # 使用IK中文分词器
"boost": 1.0
}
}
},
{
"match_phrase": {
"table_info": {
"query": user_query,
"slop": 2, # 允许短语间隔
"boost": 0.5
}
}
}
]
}
},
"size": k,
"_source": ["table_info"],
"highlight": {
"fields": {
"table_info": {} # 返回高亮片段
}
}
}
response = self.es_client.search(index=self.metadata_index, body=search_query)
table_info = [
{
"score": hit["_score"],
"table_info": hit["_source"]["table_info"],
"id": hit["_id"],
"highlight": hit.get("highlight", {}).get("table_info", [])
}
for hit in response["hits"]["hits"]
]
print(f"自然语言分词搜索字段成功,匹配到的元数据信息:{table_info}")
return table_info
defhybrid_search(self, user_query: str, k, alpha: float = 0.7) -> list:
"""混合搜索(语义+关键词)"""
# 语义搜索
semantic_results = self.semantic_search(user_query, k * 2)
semantic_map = {hit["id"]: hit for hit in semantic_results}
# 关键词搜索
keyword_results = self.keyword_search(user_query, k * 2)
keyword_map = {hit["id"]: hit for hit in keyword_results}
# 合并结果
all_ids = set(semantic_map.keys()) | set(keyword_map.keys())
combined = []
for doc_id in all_ids:
semantic_score = semantic_map.get(doc_id, {}).get("score", 0)
keyword_score = keyword_map.get(doc_id, {}).get("score", 0)
combined.append({
"id": doc_id,
"table_info": semantic_map.get(doc_id, keyword_map.get(doc_id))["table_info"],
"semantic_score": semantic_score,
"keyword_score": keyword_score,
"combined_score": alpha * semantic_score + (1 - alpha) * keyword_score,
"highlight": keyword_map.get(doc_id, {}).get("highlight", [])
})
# 按综合分数排序
combined.sort(key=lambda x: x["combined_score"], reverse=True)
table_info = combined[:k]
print(f"自然语言混合检索字段成功,匹配到的元数据信息:{table_info}")
return table_info
2.4.2. 大模型调用服务(Analysis API)
大模型调用服务中,我们直接调用本地部署的deepseek-r1:32b大模型,根据传入的提示词进行处理,可以用于根据自然语言生成SQL即NL2SQL,也可以用于对查询结果数据进行简单总结和分析,具体开发实现如下:
import requests
import json
# Analysis API
classAnalysisService:
def__init__(self):
self.ollama_host = "http://localhost:11434/api/chat"
defanalysis(self, prompt):
# 发送POST请求
str = ""
# 请求数据
data = {
"model": "deepseek-r1:32b",
"messages": [
{"role": "user", "content": prompt}
],
"stream": True
}
with requests.post(self.ollama_host, json=data, stream=True) as response:
# 处理流式响应
for line in response.iter_lines():
if line:
decoded_line = line.decode('utf-8')
try:
# 解析JSON数据
chunk = json.loads(decoded_line)
str += chunk['message']['content']
# 打印消息内容
print(chunk['message']['content'], end='', flush=True)
except json.JSONDecodeError:
print(f"无法解析JSON: {decoded_line}")
returnstr
2.4.3. 数据查询服务(Query API)
本服务主要是根据输入SQL连接数据库进行实际查询,智能体利用大模型服务生成SQL后,还需要调用此服务查询数据,具体开发实现如下:
import pymysql
import requests
import json
import decimal
from elasticsearch import Elasticsearch
# Query API
classQueryService:
def__init__(self):
self.host = "127.0.0.1"
self.username = "root"
self.password = "XXXXX"
self.database = "chaiys"
defquery(self, sql):
global conn
try:
# 连接MySQL获取表结构
conn = pymysql.connect(host=self.host, port=3306, user=self.username, password=self.password, database=self.database)
cursor = conn.cursor()
cursor.execute(sql)
# 返回字段列表
return cursor.fetchall()
finally:
conn.close()
defquery_with_column(self, sql):
global conn
try:
# 连接MySQL获取表结构
conn = pymysql.connect(
host=self.host,
user=self.username,
password=self.password,
database=self.database
)
cursor = conn.cursor()
cursor.execute(sql)
# 获取字段名称
columns = [col[0] for col in cursor.description]
# 获取数据
data = cursor.fetchall()
# 将数据转换为字典列表格式
# 将数据转换为字典列表格式
result = []
for row in data:
# 处理每个字段的值
processed_row = []
for value in row:
ifisinstance(value, decimal.Decimal):
# 转换为 float 或 str
processed_row.append(float(value)) # 或 str(value)
else:
processed_row.append(value)
result.append(dict(zip(columns, processed_row)))
return result
finally:
conn.close()
2.5. 测试结果
我们设计一些简单的相关问题,进行提问测试:
问题1:2016年的考生人数有多少?
运行python agent_service.py chat ‘2016年的考生人数有多少?’,主要输出结果如下:
########## 第一步:元数据RAG检索结果 ##########
[{'table_info': '{"表名": "college_entrance_examination", "表备注": "考生人数与复读人数信息表,包含字段:高考年份(主键)、考生人数(万人)、复读人数(万人),考生人数是指参加高考的学生的数量,复读人数是指参加高考的复读学生的数量", "字段列表": [{"字段名": ...省略若干字段信息...}]}']}]
########## 第二步:大模型调用NL2SQL ##########
########## 提示词 ##########
你是一个MySQL专家。根据以下表结构信息:
['{"表名": "college_entrance_examination", "表备注": "考生人数与复读人数信息表,包含字段:...省略...}]}']
用户查询:"'2016年的考生人数有多少?'"
生成标准MYSQL查询语句。
要求:
1. 只输出MYSQL语句,不要额外解释
2. 根据语义和字段类型,使用COUNT/SUM/AVG等聚合函数进行计算,非必须
3. 给生成的字段取一个简短的中文名称
输出格式:使用[]包含sql文本即可,不需要其他输出,便于解析,例如:[select 1from dual]
########## 结果 ##########
<think>
好,我来想想怎么解决这个问题。用户的问题是:“2016年的考生人数有多少?”首先,我需要理解问题中的关键词和要求。
表名是college_entrance_examination,里面有关于高考的数据。字段有三个:examination_year(高考年份),candidates_count(考生人数,单位是万人),retake_count(复读人数,也是万人)。主键是examination_year,所以每个年份只有一条记录。
用户问的是2016年的考生人数,也就是要查询candidates_count这一字段。因为这是一个具体的数值,并不需要聚合函数计算,直接查就可以了。
所以,我需要写一个SELECT语句,从这个表中选取candidates_count,条件是examination_year等于2016年。同时,给结果的字段取个简短的名字,比如“考生人数”。
检查一下数据类型,candidates_count是decimal(10,2),所以不需要处理,直接显示就可以了。
最后,拼装SQL语句就是:SELECT candidates_count AS 考生人数 FROM college_entrance_examination WHERE examination_year = 2016;
这样就能准确地返回用户需要的信息了。
</think>
[select candidates_count as 考生人数 from college_entrance_examination where examination_year=2016]执行SQL:select candidates_count as 考生人数 from college_entrance_examination where examination_year=2016
########## 第三步:查询数据结果 ##########
[{'考生人数': 940.0}]
########## 第四步:数据分析 ##########
########## 提示词 ##########
根据以下表结构信息:
['{"表名": "college_entrance_examination", "表备注": "考生人数与复读人数信息表,包含字段:高考... 省略若干字段信息... "}]}']
查询SQL:
select candidates_count as 考生人数 from college_entrance_examination where examination_year=2016
和以下数据信息:
[{'考生人数': 940.0}]
用户查询:"'2016年的考生人数有多少?'"
生成一段简要分析,加上一些预测总结的内容
########## 结果 ##########
<think>
好的,我现在需要帮用户生成一个关于2016年高考考生人数的分析和预测。首先,我得仔细理解用户提供的信息。
用户给出了表结构,里面包括了高考年份、考生人数和复读人数。查询语句是选中2016年的考生人数,结果得到940.0万人。那用户的问题就是问“2016年的考生人数有多少?”
接下来,我需要分析这个数据。首先,...省略...
然后,思考为什么用户会问这个问题...省略...政策影响等。
接下来是预测部分。我需要基于2016年的数据进行合理的...省略...趋势。
还要考虑可能的因素,比如...省略...
最后,要总结一下。2016年的数据是...省略...
</think>
### 数据分析与预测总结
1. **数据分析**:
- 2016 年高考考生人数为 940 万人,这一数据反映了当年参加高考的学生总数。
- 高考考生人数的变化受多种因素影响,例如人口结构、教育政策调整以及复读人数的变化等。
2. **预测总结**:
- 根据近年来高考报名人数的趋势,预计未来几年高考考生人数可能会继续保持增长趋势。这主要是由于适龄人口数量的增加以及教育资源普及率的提高。
- 复读人数也可能对总考生人数产生一定影响。如果复读人数逐年减少,可能会影响高考考生人数的增长速度。
综上所述,2016 年高考考生人数为 940 万人,这一数据为我们了解当年高考的基本情况提供了重要参考。未来,高考考生人数可能会继续增长,但增速可能会趋于平稳。
可以看到,语义混合检索返回的一个表结构命中元数据考生人数信息表,正常生成SQL,并查询到考生人数,最后调用大模型简单分析返回。
问题2:2016年的录取人数有多少?
运行python agent_service.py chat ‘2016年的录取人数有多少?’,主要输出结果如下:
########## 第一步:元数据RAG检索结果 ##########
[{'table_info': '{"表名":"college_entrance_admission","表备注":"录取人数与普通高校数信息表,包含字段:录取年份(主键)、录取人数(万人)、普通高中招生高校数、本科录取人数(万人)、专科录取人数(万人),录取人数是指录取或者招收、招录的学生的数量"...省略若干字
为了减少文字,表结构信息这里省略了,用户这个问题通过语义检索到的表(college_entrance_admission),和前面一个问题检索到的表(college_entrance_examination)不同,
########## 第二步:大模型调用NL2SQL ##########
########## 提示词 ##########
你是一个MySQL专家。根据以下表结构信息:...省略若干字prompt和think过程
[select admission_count as 录取人数 from college_entrance_admission where admission_year=2016]执行SQL:select admission_count as 录取人数 from college_entrance_admission where admission_year=2016
########## 第三步:查询数据结果 ##########
[{'录取人数': 772.0}]
########## 第四步:数据分析 ##########
########## 提示词 ##########
根据以下表结构信息:...省略若干字Prompt和think过程
2016年高考的录取人数为772.0万人。这一数据反映了当年全国范围内普通高校招生的整体情况。
**分析:**
- 从历史趋势来看,...省略若干字
- 录取人数的变化还可能...省略若干字
**预测总结:**
- 预计未来几年高考录取人数可能...省略若干字
可以看到,语义混合检索返回的一个表结构命中元数据录取人数信息表,正常生成SQL,并查询到录取人数的信息,最后调用大模型简单分析数据返回。
大模型算是目前当之无愧最火的一个方向了,算是新时代的风口!有小伙伴觉得,作为新领域、新方向
人才需求必然相当大,与之相应的人才缺乏、人才竞争自然也会更少,那转行去做大模型是不是一个更好的选择呢?是不是更好就业
呢?是不是就暂时能抵抗35岁中年危机呢?
答案当然是这样,大模型必然是新风口!
那如何学习大模型 ?
由于新岗位的生产效率,要优于被取代岗位的生产效率,所以实际上整个社会的生产效率是提升的。但是具体到个人,只能说是:
最先掌握AI的人,将会比较晚掌握AI的人有竞争优势。
这句话,放在计算机、互联网、移动互联网的开局时期,都是一样的道理。
但现在很多想入行大模型的人苦于现在网上的大模型老课程老教材
,学也不是不学也不是,基于此我用做产品的心态来打磨这份大模型教程
,深挖痛点并持续修改了近100余次
后,终于把整个AI大模型的学习路线完善出来!
在这个版本当中:
您只需要听我讲,跟着我做即可,为了让学习的道路变得更简单,这份大模型路线+学习教程已经给大家整理并打包分享出来
, 😝有需要的小伙伴,可以 扫描下方二维码领取
🆓↓↓↓
一、大模型经典书籍(免费分享)
AI大模型已经成为了当今科技领域的一大热点,那以下这些大模型书籍就是非常不错的学习资源。
二、640套大模型报告(免费分享)
这套包含640份报告的合集,涵盖了大模型的理论研究、技术实现、行业应用等多个方面。无论您是科研人员、工程师,还是对AI大模型感兴趣的爱好者,这套报告合集都将为您提供宝贵的信息和启示。(几乎涵盖所有行业)
三、大模型系列视频教程(免费分享)
四、2025最新大模型学习路线(免费分享)
我们把学习路线分成L1到L4四个阶段,一步步带你从入门到进阶,从理论到实战。
L1阶段:启航篇丨极速破界AI新时代
L1阶段:了解大模型的基础知识,以及大模型在各个行业的应用和分析,学习理解大模型的核心原理、关键技术以及大模型应用场景。
L2阶段:攻坚篇丨RAG开发实战工坊
L2阶段:AI大模型RAG应用开发工程,主要学习RAG检索增强生成:包括Naive RAG、Advanced-RAG以及RAG性能评估,还有GraphRAG在内的多个RAG热门项目的分析。
L3阶段:跃迁篇丨Agent智能体架构设计
L3阶段:大模型Agent应用架构进阶实现,主要学习LangChain、 LIamaIndex框架,也会学习到AutoGPT、 MetaGPT等多Agent系统,打造Agent智能体。
L4阶段:精进篇丨模型微调与私有化部署
L4阶段:大模型的微调和私有化部署,更加深入的探讨Transformer架构,学习大模型的微调技术,利用DeepSpeed、Lamam Factory等工具快速进行模型微调,并通过Ollama、vLLM等推理部署框架,实现模型的快速部署。
L5阶段:专题集丨特训篇 【录播课】
全套的AI大模型学习资源
已经整理打包,有需要的小伙伴可以微信扫描下方二维码
,免费领取
更多推荐
所有评论(0)