agent其实就是 会调用api的大模型,当用户输入信息之后自动匹配关键词,从而调用对应的api,然后agent结合api返回的内容一块输入给大模型。然后大模型整合之后再进行输出。在没有训练之前这个基座模型并不会调用api,在训练了之后可以调用了。具体的等总结完过程之后在更新。

第一步:在终端中安装所需包

在Jupyter Lab中打开一个新的终端,然后运行

# 1. 确保conda已初始化

conda init bash
source ~/.bashrc

# 2. 创建并激活conda环境(如果还没创建)

conda create -n agent python=3.10 -y
conda activate agent

# 3. 安装所有必需的包(使用国内镜像加速)

pip install vllm -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install llamafactory -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install modelscope -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install torch torchvision torchaudio -i https://pypi.tuna.tsinghua.edu.cn/simple
pip install openai requests -i https://pypi.tuna.tsinghua.edu.cn/simple

# 4. 验证安装

python -c "import vllm, llamafactory, modelscope, torch; print('所有包安装成功!')"



第二步:为agent环境创建Jupyter内核

# 在终端中继续运行(确保还在agent环境中)
 

pip install ipykernel
python -m ipykernel install --user --name agent --display-name "Python (agent)"

第三步:切换Notebook到agent环境

  1. 回到你的Jupyter Notebook

  2. 点击右上角的内核名称(显示"Python 3"的地方)

  3. 选择新创建的 Python (agent)

  4. 内核会自动重启

# 在终端中(确保在agent环境下)

​
conda activate agent

​

# 创建模型目录

mkdir -p /root/autodl-tmp/models

# 使用modelscope下载模型(国内加速)



export USE_MODELSCOPE_HUB=1


然后在命令行中


python -c "
from modelscope import snapshot_download
model_dir = snapshot_download('qwen/Qwen2-1.5B', cache_dir='/root/autodl-tmp/models')
print(f'模型下载到: {model_dir}')
"

下载llamafactory 
需要配置一下llamafactory ,训练的时候需要用到shu ju
##xhttps://llamafactory.readthedocs.io/zh-cn/latest/getting_started/installation.html​​​​​​​x

修改配置文件

用Jupyter Lab的文件浏览器找到 qwen_lora_merged.yaml 文件,编辑内容:

##注意这个实际model_nameor_path:下载到哪里就用那个 根据上面model_dir进行更改
也可以直接用model_name     
eg:Qwen2-1___5B.  我这了下划线是三个 具体要注意一下 

​
model_name_or_path: /root/autodl-tmp/models/qwen2-1.5B
template: qwen
infer_backend: vllm
vllm_enforce_eager: true

​



##用绝对路径启动

llamafactory-cli api /root/data/qwen_lora_merged.yaml &

可能会遇到一个vllm的版本问题   这是因为版本太新了  按照要求重新装一下就可以了
mportError: vllm>=0.4.3,<=0.8.6 is required for a normal functioning of this module, but found vllm==0.10.1.1. To fix: run `pip install vllm>=0.4.3,<=0.8.6` or set `DISABLE_VERSION_CHECK=1` to skip this check

##启动可能会遇到一些版本的问题 

# 安装指定版本的vllm
pip install "vllm>=0.4.3,<=0.8.6"

# 重新启动API服务

llamafactory-cli api /root/data/qwen_lora_merged.yaml &


启动后如图所示 

这就在本地运行了 qwen2-1 5b的模型

import requests
import json

# 测试API连通性
try:
    response = requests.post(
        "http://localhost:8000/v1/chat/completions",
        json={
            "model": "gpt-3.5-turbo",
            "messages": [{"role": "user", "content": "你好!请用一句话自我介绍"}],
            "max_tokens": 50
        },
        timeout=10
    )
    print("API响应:", response.status_code)
    print("回复内容:", response.json()['choices'][0]['message']['content'])
except Exception as e:
    print("API测试失败:", e)

# 测试模型是否会调用工具
test_messages = [
    {"role": "system", "content": "你是一个有用的小助手,请调用工具来回答用户的问题。"},
    {"role": "user", "content": "鸡蛋壳属于哪种类型的垃圾?"}
]

test_response = client.chat.completions.create(
    messages=test_messages, 
    model="gpt-3.5-turbo", 
    tools=tools
)

print("是否有tool_calls:", hasattr(test_response.choices[0].message, 'tool_calls') and test_response.choices[0].message.tool_calls is not None)
print("模型回复:", test_response.choices[0].message.content)



此时模型还是傻乎乎的  不会调用所具备的工具

也可以试一下funcioin_call.py 看下此时模型输出什么 

##下面进入训练

⾸先,进⼊我们已经安装好的vllm_env环境

conda activate agent
由于国内⽹络环境问题,国内的学⽣们需要提前设置⼀下使⽤魔塔作为模型源:
export USE_MODELSCOPE_HUB=1

检查配置一下/root/data/qwen2_lora_sft.yaml

 

### model
model_name_or_path: /root/data/autodl-tmp/models/qwen/Qwen2-1___5B

### method
stage: sft
do_train: true
finetuning_type: lora
lora_target: all

### dataset
dataset: glaive_toolcall_en, glaive_toolcall_zh,alpaca_gpt4_en,alpaca_gpt4_zh

##这里注意看你的factory下载在哪里 
dataset_dir: /root/data/LLaMA-Factory/data
template: qwen
cutoff_len: 1024
max_samples: 50000
overwrite_cache: true
preprocessing_num_workers: 16

### output
output_dir: /root/autodl-tmp/checkpoints/agent
logging_steps: 100
save_steps: 1000
plot_loss: true
overwrite_output_dir: true

### train
##这里的batch_size原来是为1的,可以适当的设置 我的24g 4090 设置的8 2,正好拉满



#per_device_train_batch_size: 4      # 物理批次大小
#gradient_accumulation_steps: 4       # 累积步数
#有效批次大小 = 4 × 4 = 16

##物理批次大小:一次前向传播处理的数据量。梯度累积步数:多少次前向传播后才更新一次权重,为什么要累积:因为显存有限,不能一次性处理太大批次

per_device_train_batch_size: 1

gradient_accumulation_steps: 2
learning_rate: 1.0e-4
num_train_epochs: 3.0
lr_scheduler_type: cosine
warmup_ratio: 0.1
bf16: true
ddp_timeout: 180000000

### eval
val_size: 0.01
per_device_eval_batch_size: 1
eval_strategy: steps
eval_steps: 1000


 

接下来, 运⾏下⾯的命令开始训练:  我这里用的是绝对路径 省的麻烦
llamafactory-cli train /root/data/qwen2_lora_sft.yaml

每训练一个批次的数据 都会显示loss损失值,并且会更新学习率。
基本上可以把4090 24个 拉满

##训练完成后 开始合并
配置qwen_lora_sft.yaml
### Note: DO NOT use quantized model or quantization_bit when merging lora adapters

### model


model_name_or_path: /root/data/autodl-tmp/models/qwen/Qwen2-1___5B

##qwen2_lora_sft.yaml里面output是/root/autodl-tmp/checkpoints/agent.  

##设置了checkpoint-35148  特定的检查点可以防止过拟合

#35148可以改成你agent下面有的快照节点 如果不设置那么就是用最后一个整个的进行匹配
adapter_name_or_path: /root/autodl-tmp/checkpoints/agent/checkpoint-35148
template: qwen
finetuning_type: lora

### export



##完成模型存放位置
export_dir: /root/autodl-tmp/checkpoints/agent_lora_merged
export_size: 2
export_device: cpu
export_legacy_format: false
 llamafactory-cli export /root/data/qwen_lora_sft.yaml

最后就是在/data下面创建一个qwen_lora_infer.yaml


其实和 qwen_lora_merged.yaml一样 只是模型地址换了新的 export中的地址
 

llamafactory-cli api /root/data/qwen_lora_infer.yaml



启动之后再到jupyter里面进行测试就可以看到了


测试 

 

import os
import json
from openai import OpenAI
from typing import Sequence
import requests

os.environ["OPENAI_BASE_URL"] = "http://localhost:8000/v1"
os.environ["OPENAI_API_KEY"] = "0"


def get_rubbish_category(keyword):
    url = f"https://api.timelessq.com/garbage?keyword={keyword}"
    response = requests.request("GET", url)
    output_str_list = []
    for item in response.json()['data']:
        output_str_list.append(f"{item['name']}: {item['categroy']}")
    return '\n'.join(output_str_list)


def get_song_information(keyword):
    url = f"https://api.timelessq.com/music/tencent/search?keyword={keyword}"
    response = requests.request("GET", url)
    song_infor = response.json()['data']['list'][0]
    singer = '' if not song_infor['singer'] else song_infor['singer'][0]['name']
    return f"歌曲: {keyword}\n歌手: {singer}\n时长: {song_infor['interval']}秒\n专辑名称: {song_infor['albumname']}"


def get_cartoon_information(title):
    url = f"https://api.timelessq.com/bangumi?title={title}"
    response = requests.request("GET", url)
    data = response.json()['data'][0]
    return f"标题: {data['title']}\n类型:{data['type']}\n语言:{data['lang']}\n出品方:{data['officialSite']}\n上映时间:{data['begin']}\n完结事件:{data['end']}"


tool_map = {"get_rubbish_category": get_rubbish_category,
            "get_song_information": get_song_information,
            "get_cartoon_information": get_cartoon_information}


if __name__ == "__main__":
    client = OpenAI()
    tools = [
        {
            "type": "function",
            "function": {
                            "name": "get_rubbish_category",
                            "description": "适用于生活垃圾分类时,判断物品属于哪种类型的垃圾?",
                            "parameters": {
                                "type": "object",
                                "properties": {
                                    "keyword": {
                                        "type": "string",
                                        "description": "物品名称,用于垃圾分类",
                                    },
                                },
                                "required": ["keyword"],
                            }
                        }
        },
        {
            "type": "function",
            "function": {
                            "name": "get_cartoon_information",
                            "description": "根据用户提供的动漫标题,查询该动漫的相关信息。",
                            "parameters": {
                                "type": "object",
                                "properties": {
                                    "title": {
                                        "type": "string",
                                        "description": "动漫",
                                    },
                                },
                                "required": ["title"],
                            }
                        }
        },
        {
            "type": "function",
            "function": {
                            "name": "get_song_information",
                            "description": "根据用户提供的歌曲名称,查询歌曲相关信息,包括歌手、时长、专辑名称等。",
                            "parameters": {
                                "type": "object",
                                "properties": {
                                    "keyword": {
                                        "type": "string",
                                        "description": "歌曲名称",
                                    },
                                },
                                "required": ["keyword"],
                            }
                        }
        }
    ]

    messages = []
    messages.append({"role": "system", "content": "你是一个有用的小助手,请调用下面的工具来回答用户的问题,参考工具输出进行回答。"})
    # messages.append({"role": "user", "content": "鸡蛋壳属于哪种类型的垃圾?"})
    # messages.append({"role": "user", "content": "爱在西元前是谁唱的,来自哪张专辑?"})
    # messages.append({"role": "user", "content": "凉凉是谁唱的"})
    messages.append({"role": "user", "content": "动漫《棋魂》是哪个国家的,什么时候上映的?"})
    result = client.chat.completions.create(messages=messages, model="gpt-3.5-turbo", tools=tools)
    print("result")
    print(result)
    tool_call = result.choices[0].message.tool_calls[0].function
    print("tool_call")
    print(tool_call)
    name, arguments = tool_call.name, json.loads(tool_call.arguments)
    messages.append({"role": "function", "content": json.dumps({"name": name, "arguments": arguments}, ensure_ascii=False)})
    tool_result = tool_map[name](**arguments)
    messages.append({"role": "tool", "content": "工具输出结果为: " + tool_result})
    for msg in messages:
        print('--->', msg)
    result = client.chat.completions.create(messages=messages, model="gpt-3.5-turbo")
    print("Answer: ", result.choices[0].message.content)


 从里面可以看到tool 工具的使用和输出。到此模型训练成功

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐