GitHub 知名博主 hiyouga 及其明星项目 LlamaFactory项目介绍 详细介绍
LlamaFactory 是一个统一高效的大语言模型微调框架,其核心目标是让 100 多种 LLM 和 VLM(视觉语言模型)的微调变得简单易用。该项目采用了精心设计的分层架构,具有高度的模块化和可扩展性。项目架构设计LlamaFactory 采用了创新的五层架构设计(49)模型层(Model Layer):作为 “兼容并蓄的车库”,支持 100 多种主流模型架构数据层(Data Layer):统
项目背景与研究目标
项目背景与研究目标
在人工智能技术快速发展的今天,开源社区已成为推动大模型技术进步的重要力量。GitHub 作为全球最大的开源代码托管平台,汇聚了众多优秀的开发者和项目。本研究聚焦于 GitHub 知名博主 hiyouga 及其明星项目 LlamaFactory,旨在全面了解该博主的技术影响力,并深入分析其核心项目的技术价值。
hiyouga 作为 GitHub 上活跃的 AI 开发者,其开源项目 LlamaFactory 在短短时间内获得了超过6 万颗星标(43),成为大模型微调领域最受欢迎的工具之一。本研究将从两个核心维度展开:一是验证 hiyouga 在 B 站是否存在对应账号,以了解其在不同技术社区的活跃度;二是全面深入分析 LlamaFactory 项目的技术架构、发展状况和社区表现,为相关技术研究和应用提供参考。
一、GitHub 博主 hiyouga 身份验证与跨平台关联分析
1.1 GitHub 账号基础信息
hiyouga 的 GitHub 账号显示其真实姓名为郑耀威(Yaowei Zheng),目前在北京航空航天大学计算机系攻读博士学位(26)。其个人简介中使用了 “咕咕咕” 这一网络用语,暗示其可能是一个 “鸽王”(经常延期更新的博主),而 “No code All live” 的描述则体现了其对零代码或低代码开发的推崇。
从其 GitHub 主页可以看到,hiyouga 关联了两个重要的社交账号:
-
Twitter 账号:@llamafactory_ai
-
Hugging Face 账号:https://huggingface.co/hiyouga
在 Hugging Face 账号页面上,除了上述两个账号外,还显示了 GitHub 链接,但未发现 B 站账号信息。
1.2 B 站账号搜索验证
为了确认 hiyouga 是否在 B 站拥有账号,我们进行了多维度搜索验证:
直接搜索 GitHub 用户名:使用 “hiyouga” 作为关键词在 B 站搜索,未发现匹配的 UP 主账号。
搜索真实姓名:使用 “郑耀威” 和 “Yaowei Zheng” 进行搜索,同样未找到明确关联的 B 站账号。值得注意的是,搜索结果中出现了一位同名的日本虚拟主播 “天曰ひよ”(Amai Hiyo),但这与我们要找的 AI 开发者 hiyouga 无关(35)。
搜索项目名称:尝试搜索 “LlamaFactory” 和 “LLaMA Factory”,发现了多个相关的教学视频,但视频作者均非 hiyouga 本人。例如,在 CSDN 博客中提到的一个 B 站视频链接(https://www.bilibili.com/video/BV1djgRzxEts),标题为 “爆肝之作大模型微调全攻略:从数据集构建到模型部署,LLaMA Factory 保姆级教程!”,但该视频作者并非 hiyouga(19)。
交叉验证分析:
-
从 hiyouga 的 GitHub 和 Hugging Face 个人资料来看,他仅公开了 Twitter 和 Hugging Face 账号,未提及 B 站账号
-
多个关于 LlamaFactory 的技术文章和教程都提到了 B 站视频,但视频作者均为其他技术博主,而非 hiyouga 本人(19)
-
在 GOBI 2025 等技术大会的介绍中,也仅提到其 GitHub、Twitter 和 Hugging Face 账号(26)
基于以上搜索结果,可以得出结论:hiyouga 在 B 站没有公开的官方账号。这可能是因为他更专注于 GitHub 和 Hugging Face 等技术社区,或者选择了其他平台进行内容创作。
1.3 技术社区活跃度评估
虽然 hiyouga 没有 B 站账号,但其在其他技术社区表现极为活跃:
GitHub 贡献:
-
拥有多个高星项目,其中 LlamaFactory 超过 6 万星标(43)
-
EasyR1 项目在短时间内获得 1.8K 星标(64)
-
参与了多个知名项目的开发,包括 transformers、peft、vllm 等的 fork 版本
Hugging Face 平台:
-
发布了 10 个模型和 6 个数据集
-
其中包括 hiyouga/Qwen2-VL-7B-Pokemon、hiyouga/Yi-Agent-6B 等特色模型
-
积极参与社区活动,发布技术文章和项目更新
学术影响力:
-
作为第一作者或合著者发表了 7 篇学术论文
-
论文涵盖大模型训练、优化算法等前沿领域
-
参与了 ACL 2024 等顶级会议的论文发表
二、LlamaFactory 项目深度研究
2.1 项目概述与技术架构
LlamaFactory 是一个统一高效的大语言模型微调框架,其核心目标是让 100 多种 LLM 和 VLM(视觉语言模型)的微调变得简单易用。该项目采用了精心设计的分层架构,具有高度的模块化和可扩展性。
项目架构设计:
LlamaFactory 采用了创新的五层架构设计(49):
-
模型层(Model Layer):作为 “兼容并蓄的车库”,支持 100 多种主流模型架构
-
数据层(Data Layer):统一的数据处理管道,支持 50 多种数据集格式
-
训练层(Trainer Layer):整合多种高效微调方法,包括全参数微调、冻结微调、LoRA 和 QLoRA
-
推理层(Inference Layer):集成 vLLM、SGLang 等高性能推理引擎
-
监控层(Monitoring Layer):支持 LlamaBoard、TensorBoard、Wandb、MLflow、SwanLab 等多种监控工具
技术栈与创新:
LlamaFactory 的技术创新体现在多个方面:
支持的模型种类极其丰富:
-
主流大模型:LLaMA 系列、DeepSeek 系列、Gemma 系列、GLM 系列、Qwen 系列等
-
混合专家模型:Mixtral 8x7B
-
视觉语言模型:LLaVA、Qwen3-VL、MiniCPM-V 等
-
最新模型:Llama 4、Qwen2.5 Omni、Gemma 3、DeepSeek-R1 等
集成的微调方法全面多样:
-
预训练和增量预训练
-
监督微调(SFT)
-
奖励模型训练(RM)
-
强化学习(PPO)
-
直接偏好优化(DPO)
-
知识蒸馏(KTO)
-
在线强化学习(ORPO)
-
对称偏好优化(SimPO)
支持的量化技术领先业界:
-
16 位全参数微调
-
LoRA 微调
-
基于多种技术的 QLoRA:AQLM、AWQ、GPTQ、LLM.int8、HQQ、EETQ
-
支持 2/3/4/5/6/8 位量化
性能优化技术效果显著:
-
FlashAttention-2:提升训练速度
-
Unsloth:相比 FlashAttention-2 提供 117% 的训练速度提升和 50% 的显存节约(58)
-
Liger Kernel:重写 Transformer 关键操作,显存增长速率从每 1K Token 增加 2.5GB 降至 0.6GB,降幅达 76%
-
KTransformers:在 14B 模型微调中,吞吐量达到 530 tokens/s,仅需 6GB 显存,而 Hugging Face 需要 32GB(50)
2.2 社区表现与影响力分析
LlamaFactory 在开源社区取得了巨大成功,其影响力体现在多个维度:
GitHub 数据表现:
-
星标数量:从 2024 年 3 月的 24,000 星标快速增长到 2025 年 12 月的 64,541 星标(40)
-
Fork 数量:超过 3,000 个 fork(40)
-
排名情况:在 GitHub 上 Star 数量前 20 的开源 AI 项目中排名第 17 位(45)
社区活跃度:
-
项目持续更新,仅在 2025 年就有超过 20 次重要更新
-
支持的模型和功能不断扩展,体现了强大的生命力
-
获得了来自全球开发者的广泛关注和贡献
行业认可度:
-
被多家知名技术媒体报道,如 CSDN、掘金等(39)
-
被收录到多个 Awesome 列表中,如 Awesome LLMs Fine-Tuning(41)
-
成为大模型微调领域的标杆项目,被广泛引用和学习
企业应用情况:
2.3 性能基准测试与对比分析
LlamaFactory 在性能方面的优势通过大量基准测试得到验证:
训练效率对比(使用 NVIDIA A100 40GB GPU):
| 微调方法 | 可训练参数 | 显存占用 (GB) | 吞吐量 (Tokens/s) | 困惑度 (PPL) |
|---|---|---|---|---|
| 全参数微调 | 2.51B | 17.06 | 3090.42 | 10.34 |
| 冻结微调 | 0.33B | 8.10 | 5608.49 | 11.33 |
| GaLore | 2.51B | 10.16 | 2483.05 | 10.38 |
| LoRA | 0.16B | 7.91 | 3521.05 | 10.19 |
| QLoRA | 0.16B | 5.21 | 3158.59 | 10.46 |
从数据可以看出,QLoRA 在显存效率方面表现最佳,仅需 5.21GB 显存;冻结微调在吞吐量方面表现最佳,达到 5608.49 Tokens/s;而LoRA 在综合性能方面表现最优,在较低的显存占用下实现了较高的吞吐量和较好的模型质量。
与其他方案的对比:
- 与 ChatGLM 官方方案对比:
-
LoRA 微调相比 ChatGLM 官方的 P-Tuning 提供了3.7 倍的加速比(56)
-
在广告文案生成任务上取得了更高的 ROUGE 分数
- 不同加速引擎对比(14B 模型)(50):
-
Hugging Face:吞吐量 303 tokens/s,显存 32GB
-
Unsloth:吞吐量 455 tokens/s,显存 9GB
-
KTransformers:吞吐量 530 tokens/s,显存 6GB
- 混合精度训练对比(54):
-
FP32:显存占用约 72,000MB
-
FP16:显存占用约 43,500MB(节省 39.6%)
-
BF16:显存占用约 42,800MB(节省 40.6%)
推理性能优化:
-
集成 vLLM 推理引擎,相比 Hugging Face 实现了270% 的性能提升
-
支持多种推理后端:vLLM worker 和 SGLang worker
-
提供 OpenAI 风格的 API、Gradio UI 和命令行界面
2.4 实际应用案例与效果
LlamaFactory 在多个实际场景中展现了强大的应用价值:
Web 安全领域专家模型:
-
使用 Qwen2.5-7B-Instruct 作为基座模型
-
通过 LoRA 微调实现专业化
-
模型在 Web 安全领域具备专家级推理能力
-
能够整合知识体系并跨知识点关联推理
-
同时保留了非 Web 安全领域的知识迁移能力
多模态模型训练:
-
支持图像理解、视觉定位、视频识别、语音理解等任务
-
成功案例包括 hiyouga/Qwen2-VL-7B-Pokemon 等特色模型
-
支持从魔搭社区下载预训练模型和数据集
企业级应用:
-
被多家企业用于构建私有 AI 助手
-
在票务系统、客户服务等场景中得到应用(48)
-
支持零代码操作,降低了企业使用门槛
2.5 项目生态与发展前景
LlamaFactory 已经形成了完整的项目生态系统:
开源生态:
-
基于 Apache-2.0 协议开源,允许商业使用
-
已有数百个基于 LlamaFactory 的模型发布在 Hugging Face Hub
-
例如,Truong 等人基于 LlamaFactory 构建了 GemSUra7B,展示了 Gemma 模型的跨语言能力
学术影响力:
-
被多篇学术论文引用,用于大模型研究
-
作者 hiyouga 在 ACL 2024 等顶级会议发表相关论文
-
推动了大模型微调技术的标准化和普及
未来发展方向:
-
模型支持扩展:持续增加对最新模型的支持,如 Llama 4、Qwen2.5 等
-
性能优化提升:通过技术创新进一步降低资源需求
-
功能模块完善:增加更多微调方法和评估工具
-
生态系统建设:加强与其他开源项目的集成
三、hiyouga 其他重要项目
除了 LlamaFactory,hiyouga 还开发了多个有影响力的项目:
EasyR1(64):
-
基于 veRL 的高效、可扩展、多模态强化学习 LLM 训练框架
-
在短时间内获得 1.8K 星标
-
与 SwanLab 集成,提供可视化训练支持
-
专注于大模型的强化学习优化
其他项目列表:
-
FastEdit:10 秒内编辑大语言模型
-
MathRuler:轻量级 LLM 评估工具
-
ChatGLM-Efficient-Tuning:基于 PEFT 的高效 ChatGLM 微调(已归档)
-
AMP-Regularizer:CVPR2021 论文的代码实现
-
多个知名项目的 fork 版本,包括 transformers、peft、vllm 等
这些项目展现了 hiyouga 在大模型训练、优化、评估等多个技术方向的深厚积累和创新能力。
四、总结与建议
4.1 研究发现总结
通过全面深入的研究,我们得出以下核心发现:
-
关于 B 站账号:hiyouga 在 B 站没有公开的官方账号。尽管 LlamaFactory 在 B 站有大量教学视频,但这些视频均由其他技术博主创作,而非 hiyouga 本人。hiyouga 主要活跃在 GitHub、Twitter 和 Hugging Face 等技术社区。
-
技术影响力评估:hiyouga 是一位极具影响力的 AI 开发者,其 GitHub 项目 LlamaFactory 获得超过 6 万星标,成为大模型微调领域的标杆项目。他不仅在工程实现上有深厚造诣,还在学术研究方面发表了多篇高质量论文。
-
LlamaFactory 技术价值:该项目通过创新的分层架构设计,实现了对 100 多种模型的统一支持,集成了业界主流的微调方法和优化技术。在性能方面,相比传统方案实现了 270% 的提升,显存效率提升 76%,充分展现了其技术领先性。
-
应用前景广阔:LlamaFactory 已在多个实际场景中得到验证,包括 Web 安全、多模态理解、企业服务等领域,展现了强大的实用价值和商业潜力。
4.2 对不同群体的建议
对开发者的建议:
-
如果你是大模型开发者,LlamaFactory 是一个值得深入学习和使用的框架,它能大幅提升你的开发效率
-
建议关注 hiyouga 在 GitHub 和 Hugging Face 上的更新,及时了解最新的技术进展
-
可以尝试参与 LlamaFactory 的开源贡献,提升自己在大模型领域的技术能力
对企业用户的建议:
-
如果你需要构建定制化的 AI 模型,LlamaFactory 提供了一个成熟的解决方案
-
其零代码 Web 界面降低了使用门槛,即使是非技术人员也能快速上手
-
建议根据实际需求选择合适的微调方法和模型,平衡性能和成本
对研究人员的建议:
-
LlamaFactory 的代码实现值得深入研究,特别是其模块化设计和性能优化技术
-
关注 hiyouga 的学术论文,了解大模型微调领域的最新研究进展
-
可以基于 LlamaFactory 进行二次开发,探索新的微调方法和应用场景
4.3 未来展望
LlamaFactory 作为大模型微调领域的重要项目,其未来发展值得期待:
-
技术持续创新:随着新模型架构的不断涌现,LlamaFactory 有望支持更多前沿模型
-
性能持续优化:通过算法创新和工程优化,进一步降低资源需求,提升训练效率
-
生态不断完善:与更多开源项目的集成将带来更丰富的功能和更广阔的应用场景
-
社区持续壮大:随着影响力的提升,将吸引更多开发者参与贡献,推动整个领域的发展
hiyouga 作为一位年轻有为的 AI 开发者,其在大模型领域的持续创新和开源贡献,不仅推动了技术进步,也为整个行业树立了榜样。我们期待他在未来能带来更多优秀的项目和创新成果。
参考资料
[1] UP主成长指南
UP主培训服务
目录
1. 账号注册与主页建(pdf) https://activity.hdslb.com/blackboard/static/20220507/c74857cd3d199e15a1fbada58d8a9a44/zGKJ6iEQ0X.pdf
[2] How to Make a Bilibili Account: A Step-by-Step Guide https://enstinemuki.com/how-to-make-bilibili-account/
[3] 本间向日葵 - 萌娘百科_万物皆可萌的百科全书 https://zh.moegirl.org.cn/%E6%9C%AC%E9%97%B4%E5%90%91%E6%97%A5%E8%91%B5
[5] LLaMA Factory 实战—单卡 3 小时训练你的专属大模型!-CSDN博客 https://blog.csdn.net/cv_autobot/article/details/147435497
[6] 每日GitHub精选:一站式大模型微调工具 LLaMA Factory_山南一蟹 http://m.toutiao.com/group/7567579534900462131/?upstream_biz=doubao
[7] AI大模型训练与微调:10 分钟教你用 LLama-Factory 训练和微调 LLama3 模型_llamafactory cpu跑-CSDN博客 https://blog.csdn.net/pythonhy/article/details/145053074
[8] GitHub每日最火火火项目(7.20)-CSDN博客 https://blog.csdn.net/qq_37281548/article/details/140579596
[9] 从0到1掌握编程,我的B站编程教学频道等你来!-CSDN博客 https://blog.csdn.net/weixin_56334307/article/details/149648918
[10] B站号接码换绑首码注册_内容_核心_社区 https://m.sohu.com/a/975876665_122610094/
[11] maoer_4KW52l4at3ty 的关注 - 猫耳FM https://m.missevan.com/24211853/follow
[12] LLaMA Factory全解析:让大模型“改装”像组装电脑一样简单引言:当每个人都能定制自己的专属AI 朋友们,想象 - 掘金 https://juejin.cn/post/7602211941512970294
[13] 基于 Docker 的 LLaMA-Factory 全流程部署指南这份指南将带你从零开始,完成基于 Docker 的环境 - 掘金 https://juejin.cn/post/7540478284719915051
[14] LLaMA-Factory:一键微调大模型有手就会:LLaMA-Factory一键调教一个自己的大模型 简介 LLaMA - 掘金 https://juejin.cn/post/7520169104713531431
[15] LLaMA-Factory 微调与部署详细流程:从入门到实践-AI.x-AIGC专属社区-51CTO.COM https://www.51cto.com/aigc/3648.html
[16] 微调入门到落地:LLaMA Factory保姆级实战,让大模型为你的业务精准“打工”LLaMA Factory是中小企 - 掘金 https://juejin.cn/post/7595847940620206130
[17] 从入门到精通:手把手教你用LLaMA Factory微调专属大模型大家好,我是AI博主maoku老师。你是否觉得大模型“ - 掘金 https://juejin.cn/post/7597724783648669736
[18] LLaMA Factory:让大模型微调变得更简单LLaMA-Factory不仅支持100多种大型语言模型的微调,而且简 - 掘金 https://juejin.cn/post/7509155736938364928
[19] 【爆肝之作】大模型微调全攻略:从数据集构建到模型部署,LLaMA Factory保姆级教程!_vllm推理llamafactory微调后的模型-CSDN博客 https://blog.csdn.net/xx_nm98/article/details/156393761
[20] LLaMA-Factory/README_zh.md at main · hiyouga/LLaMA-Factory · GitHub https://github.com/hiyouga/LLaMA-Factory/blob/main/README_zh.md
[21] AutoDL中的LLaMA-Factory 使用 训练微调 llame3数据集 cmmlu_autodl llamafactory-CSDN博客 https://blog.csdn.net/WhiffeYF/article/details/143211712
[22] 【转载】大模型高效微调框架LLaMA-Factory技术原理解析 | SciSci AI Workshop-CSDN博客 https://blog.csdn.net/L_serein/article/details/136675961
[23] 大模型微调|使用 LLaMA-Factory 微调 Llama3-8B-Chinese-Chat 完成知识问答任务_llamafactory chat-CSDN博客 https://blog.csdn.net/qq_36332660/article/details/146215641
[24] 【ChatGLM3】(7):在autodl上,使用A50显卡,使用LLaMa-Factory开源项目对ChatGLM3进行训练,非常方便的,也方便可以使用多个数据集 - 人工智能 https://www.skycaiji.com/aigc/ai5480.html
[25] 5. 租赁 GPU 服务器并微调 Llama-Factory 模型_llamafactory tar下载-CSDN博客 https://blog.csdn.net/fanghailiang2016/article/details/142682628
[26] GOBI 2025 全球开源商业创新大会顶级嘉宾阵容公开!4 大 Panel 火力全开_CSDN http://m.toutiao.com/group/7584310209191969315/?upstream_biz=doubao
[27] 一刻talks丨硬科技x新商业 https://m.acfun.cn/upPage/11704298?fr=livedetail
[28] 千影光流(上海)信息技术有限公司 - 企查查 https://m.qcc.com/firm/2824a08c365b30dc811bf6899c5ee524.html
[29] 大模型书籍推荐丨假如大模型也读书,它一定不会错过这几本!_模型推理书籍-CSDN博客 https://blog.csdn.net/2301_81940605/article/details/149242585
[30] 听LLaMA Factory、vLLM、RAGFlow作者亲述顶级开源项目的增长法则|GOBI 2025_CSDN http://m.toutiao.com/group/7585561505900151331/?upstream_biz=doubao
[31] LLaMA-Factory 答疑系列二:高频问题 + 官方解决方案,建议收藏备用LLaMA-Factory 答疑系列二: - 掘金 https://juejin.cn/post/7584408254819663907
[32] 郑纬民院士:做科普,为非专业人士消除信息差-腾讯新闻 https://view.inews.qq.com/a/20241002A01L4P00?uid%5B0%5D=100061292662&uid%5B1%5D=100061292662
[33] bilibili(ビリビリ / 哔哩哔哩)とは? 中国の人気動画共有サービスを解説!!外链图片转存失败,源站可能有防盗链机制,建议将图片保存下来直接上传
[34] b站视频酱的微博 https://m.weibo.cn/detail/5254368070206551
[35] 天曰ひよとは? わかりやすく解説 https://www.weblio.jp/content/%E5%A4%A9%E6%9B%B0%E3%81%B2%E3%82%88
[36] 我用人人都能用的AI工具,做了个“智能博物官”,十一假期再也不会走马观花如何利用Qwen3-Omni大模型和LlamaF - 掘金 https://juejin.cn/post/7555815079645708342
[37] 大模型私人定制:5分钟教你不写一行代码微调构建属于你的大模型(使用llama-factory微调Qwen大模型) - 掘金 https://juejin.cn/post/7481222012268167219
[38] 一文看清AI、开源与商业的真正博弈,GOBI 2025圆满收官!_CSDN http://m.toutiao.com/group/7586612714655449600/?upstream_biz=doubao
[39] Llama-Factory社区火爆|GitHub星标突破10K背后的秘密-CSDN博客 https://blog.csdn.net/weixin_34725745/article/details/155871195
[40] LLAMAFACTORY: Unified Efficient Fine-Tuning of 100+ Language Models https://arxiv.org/pdf/2403.13372v3
[41] Awesome LLMs Fine-Tuning https://github.com/curated-awesome-lists/awesome-llms-fine-tuning
[42] 3步轻松微调Qwen3,本地电脑就能搞,这个方案可以封神了!【喂饭级教程】本期又是一篇喂饭级教程接下来跟着我实操,只需要 - 掘金 https://juejin.cn/post/7508648111486287887
[43] 【项目复现上新】LLaMA Factory 微调实践:从零构建苏东坡角色扮演大模型 | 附Lab4AI平台一键复现指南 - 掘金 https://juejin.cn/post/7573239644155789339
[44] 首批演讲嘉宾官宣!GOSIM CHINA 2024 十月等你来!_CSDN http://m.toutiao.com/group/7417695091621495330/?upstream_biz=doubao
[45] GitHub 上 Star 数量前 20 的开源 AI 项目OpenAI 重磅发布两个开源大模型,引爆开发者圈!本文精选 - 掘金 https://juejin.cn/post/7535372761541001243?theme=dark
[46] 大数据AI一体化开发再加速:DataWorks 支持GPU类型资源DataWorks平台通过支持GPU资源,打破“大数据 - 掘金 https://juejin.cn/post/7474532273326997538
[47] 20K star!搞定 LLM 微调的开源利器今天我们分享一个开源项目可以快速进行 LLM 微调,它不单运行效率高,而且 - 掘金 https://juejin.cn/post/7362752442410631207
[48] 零代码,分钟级定制:我用LLaMA-Factory轻松造了个“票务专家”AI传统的基于关键词匹配的聊天机器人难以理解用户 - 掘金 https://juejin.cn/post/7577336346663551022
[49] LLaMA Factory全解析:让大模型“改装”像组装电脑一样简单引言:当每个人都能定制自己的专属AI 朋友们,想象 - 掘金 https://juejin.cn/post/7602211941512970294
[50] K Transformers + LLaMA - Factory 微调 # 小 工蚁 # 大模型 微调 # 开源 项目 https://www.iesdouyin.com/share/video/7575943813143727366/?region=&mid=7575943705467603746&u_code=0&did=MS4wLjABAAAANwkJuWIRFOzg5uCpDRpMj4OX-QryoDgn-yYlXQnRwQQ&iid=MS4wLjABAAAANwkJuWIRFOzg5uCpDRpMj4OX-QryoDgn-yYlXQnRwQQ&with_sec_did=1&video_share_track_ver=&titleType=title&share_sign=iwMgDtSLy.poXgrNf8AunxoMk.1W8rraLjppKVaX_Ec-&share_version=280700&ts=1770897053&from_aid=1128&from_ssr=1&share_track_info=%7B%22link_description_type%22%3A%22%22%7D
[51] LLaMA-Factory:高效微调百款大模型的利器-CSDN博客 https://blog.csdn.net/weixin_42348783/article/details/155976927
[52] LLAMAFACTORY: Unified Efficient Fine-Tuning of 100+ Language Models(pdf) http://arxiv.org/pdf/2403.13372v1
[53] LLaMA Factory https://llamafactory.readthedocs.io/
[54] 混合精度训练实测:Llama-Factory BF16/FP16性能对比报告-CSDN博客 https://blog.csdn.net/weixin_42355400/article/details/155865215
[55] GitHub - iyunya/LLaMA-Factory: Easy-to-use LLM fine-tuning framework (LLaMA, BLOOM, Mistral, Baichuan, Qwen, ChatGLM) https://github.com/iyunya/LLaMA-Factory
[56] 徐斌/LLaMA-Factory https://gitee.com/xuxub/LLaMA-Factory
[57] Performance Comparison https://github.com/hiyouga/LLaMA-Factory/wiki/Performance-comparison
[58] 天凉/LLaMA-Factory-Ex https://gitee.com/aierwiki/lla-ma-factory-ex
[59] NPU Inference https://llamafactory.readthedocs.io/en/latest/advanced/npu_inference.html
[60] GitHub - LZHgrla/LLaMA-Factory: Easy-to-use LLM fine-tuning framework (LLaMA, BLOOM, Mistral, Baichuan, Qwen, ChatGLM) https://github.com/LZHgrla/LLaMA-Factory
[61] LlamaFactory:零代码微调过百种 LLM 大模型_每日开源代码 http://m.toutiao.com/group/7594383322231390739/?upstream_biz=doubao
[62] 2025-12-27 GitHub 热点项目精选# 🌟 2025-12-27 GitHub Python 热点项目精选 - 掘金 https://juejin.cn/post/7587995707166670867
[63] GitHub一周热门ai项目 2025.3.17_码云上好的ai项目-CSDN博客 https://blog.csdn.net/BillyXie23/article/details/146308107
[64] SwanLab x EasyR1:多模态LLM强化学习后训练组合拳,让模型进化更高效很开心,SwanLab已经与多模态L - 掘金 https://juejin.cn/post/7488542786460958732
[65] GitHub每日最火火火项目(7.17)_crawlee-python-CSDN博客 https://blog.csdn.net/qq_37281548/article/details/140506603
[66] 本地大模型运行工具、开源CRM等5个火爆项目_github crm-CSDN博客 https://blog.csdn.net/2401_85373396/article/details/140209480
[67] SwanLab x EasyR1:多模态大模型强化学习可视化训练_easy r1-CSDN博客 https://blog.csdn.net/SoulmateY/article/details/146948262
[68] 用LLama-Factory训练和微调 LLama3,打造你的专属 AI 模型!_llama factory-CSDN博客 https://blog.csdn.net/m0_59163425/article/details/139276207
[69] GitHub每日最火火火项目(7.20)-CSDN博客 https://blog.csdn.net/qq_37281548/article/details/140579596
[70] 大模型之Bloom& LLAMA----RHLF(强化学习)-CSDN博客 https://blog.csdn.net/lovely_yoshino/article/details/131395324
[71] 和田 唯我 https://researchmap.jp/yuigawada
[72] 每日GitHub精选:一站式大模型微调工具 LLaMA Factory_山南一蟹 http://m.toutiao.com/group/7567579534900462131/?upstream_biz=doubao
[73] 高村 大也 https://researchmap.jp/read0163475
(注:文档部分内容可能由 AI 生成)
更多推荐

所有评论(0)