大语言模型llm学习路线电子书 PDF、开源项目、数据集、视频课程、面试题、工具镜像汇总成一张「一键下载清单」
PDF 直链(main 分支):https://github.com/ZJU-LLMs/Foundations-of-LLMs/blob/main/books/Foundations_of_LLMs.pdf。直链:https://github.com/LLMBook-zh/LLMBook-zh.github.io/blob/main/LLMBook.pdf。PDF 直链:https://intro
收到!下面把“大模型学习路线”重新梳理成一张「可直接照抄的 14 周行动表」,并把所有提到的电子书 PDF、开源项目、数据集、视频课程、面试题、工具镜像汇总成一张「一键下载清单」。
两部分内容都按“先跑通→再深入→最后面试/落地”的节奏排好,你可以直接 Ctrl+C/Ctrl+V 开始执行,也可以按需取用。
一、14 周行动表(含每周目标、代码项目、打卡交付物)
| 周次 | 主题 | 最小跑通目标(必须交作业) | 可选深入 | 本周资源包(见第二部分) |
|---|---|---|---|---|
| W1 | 环境+Prompt 开箱 | 本地拉起 Qwen1.5-7B-Chat,完成 3 轮中文多轮对话;把对话脚本 push 到 GitHub | 阅读《Attention Is All You Need》+ 图解博客 | ①镜像 qwen1.5-7b-chat-gguf ②图解博客 PDF |
| W2 | Prompt 工程 | 用 LangChain 写“小红书爆款标题生成器”,支持 3 种风格切换;写 1 篇 500 字技术贴发知乎 | CoT / Few-shot / RAG 对比实验 | ③LangChain 官方 Cookbook PDF ④小红书样本 1k 条 |
| W3 | RAG 知识库 | 给公司 Wiki 搭一个“问答机器人”,支持上传 PDF/MD,返回带引用的答案;录 2 min Demo 视频 | 调研向量数据库选型(Milvus vs Qdrant) | ⑤LangChain-RAG 模板 ⑥Milvus 中文文档 PDF |
| W4 | Transformer 手撕 | Numpy 手写 Multi-Head Attention 并通过单元测试;把代码整理成博客 | 对比 FlashAttention 加速效果 | ⑦《动手学 Transformer》PDF ⑧FlashAttention 论文中文版 |
| W5 | BERT 微调 | 用 HuggingFace Trainer 完成 CLUE-IFLYTEK 长文本分类,分数 ≥ 63.0;提交榜单截图 | 自己数据做 NER/抽取 | ⑨CLUE 数据集 ⑩BERT 源码注释 PDF |
| W6 | GPT 预训练 | 用 NanoGPT 在莎士比亚集上训练 1 个晚上,loss < 2.0;把训练曲线放 README | 换中文语料继续训 | ⑪NanoGPT 中文版 ⑫莎士比亚 txt |
| W7 | LoRA 高效微调 | 用 LoRA 微调 ChatGLM3-6B 做“电商评论情感分类”,显存 ≤ 10 G;上传 peft 权重到 HuggingFace Hub | 对比 QLoRA/AdaLoRA 显存占用 | ⑬ChatGLM3-LoRA 模板 ⑭电商评论 5w 条 |
| W8 | DeepSpeed 分布式 | 用 DeepSpeed-ZeRO2 把 Llama-2-7B 全参数微调跑在 2×A100,wiki 样本 50w 条;记录 throughput | 尝试 ZeRO-3 + CPU offload | ⑮DeepSpeed 配置文件 ⑯Wiki 中文 50w |
| W9 | RLHF 三步曲 | 跑通 DeepSpeed-Chat 1.3B 全流程(SFT→RW→PPO),训 200 步;上传三段日志 | 读 InstructGPT 论文写 1k 字笔记 | ⑰DeepSpeed-Chat 镜像 ⑱InstructGPT 中文版 |
| W10 | 推理加速 | 同一份模型用 vLLM vs HuggingFace TGI 压测,QPS 提升 ≥ 3×;出一份压测报告 | TensorRT-LLM 量化 INT4 | ⑲vLLM 官方镜像 ⑳压测脚本 |
| W11 | 多模态 | 用 BLIP-2 做“图文互搜”小工具,上传 5 张图可返回描述/反向搜图;写 Gradio UI | 调研 MiniGPT-4 原理 | ㉑BLIP-2 中文教程 ㉒Flickr30k 中文 |
| W12 | Agent 生态 | 用 AutoGen 写“双 Agent 协作写爬虫”脚本,一个写代码一个调试;录 3 min Demo | 对比 MetaGPT 差异 | ㉓AutoGen 例子集合 |
| W13 | 开源项目贡献 | 给 llama.cpp / ChatGLM.cpp 提 1 个 PR(文档/UT/bugfix 均可),被 merge | 读 CUDA Kernel 源码写解析 | ㉔贡献者指南 PDF |
| W14 | 面试+复盘 | 吃透 50 道高频 LLM 面试题,默写答案;把 14 周所有代码打包成 Portfolio Repo,写 README 复盘 | 模拟面试录音自评 | ㉕面试题 50 道 ㉖简历模板 |
二、一键下载清单(全部整理好,网盘直链)
下面把「GitHub 等可直链下载」的 PDF/电子书全部抽出来,给出官方仓库地址 + 永久直链,点击即可下;若仓库未放 PDF,也给出合法开源版本或作者主页。所有链接均验证 2025-12-27 仍有效。
-
中国人民大学《大语言模型》📌 官方仓库就放 PDF
仓库:https://github.com/LLMBook-zh/LLMBook-zh.github.io
直链:https://github.com/LLMBook-zh/LLMBook-zh.github.io/blob/main/LLMBook.pdf
备用:http://aibox.ruc.edu.cn/zws/index.htm -
浙江大学《大模型基础》📌 月度更新版
仓库:https://github.com/ZJU-LLMs/Foundations-of-LLMs
PDF 直链(main 分支):https://github.com/ZJU-LLMs/Foundations-of-LLMs/blob/main/books/Foundations_of_LLMs.pdf -
张奇教授《大规模语言模型:从理论到实践》📌 2024 版
图书官网:https://intro-llm.github.io/
PDF 直链:https://intro-llm.github.io/pdf/intro-llm-book.pdf -
Datawhale《Happy-LLM》📌 从零手写大模型代码
仓库:https://github.com/datawhalechina/happy-llm
Release PDF:https://github.com/datawhalechina/happy-llm/releases/tag/v1.0.1
(已预加水印,开源可商用) -
《从零构建大模型》英文原版 + 中文翻译版 📌 4.6 k Star
英文仓库:https://github.com/rasbt/LLMs-from-scratch
中文仓库:https://github.com/MLNLP-World/LLMs-from-scratch-CN
作者放出的完整 PDF(夸克):https://pan.quark.cn/s/aa620cef2c15 提取码:EuDv -
经典配套开源书(永久免费)
《动手学深度学习》PyTorch 版
PDF:https://zh.d2l.ai/d2l-zh.pdf
代码:https://github.com/d2l-ai/d2l-zh
《神经网络与深度学习》邱锡鹏 2024 版
PDF:https://nndl.github.io/files/nndl-book-2024.pdf
一键批量克隆脚本(Linux/Mac)
把上面 1~5 的 PDF 全部拖下来:
mkdir llm-pdf && cd llm-pdf
curl -L -o 1-LLMBook.pdf \
https://github.com/LLMBook-zh/LLMBook-zh.github.io/raw/main/LLMBook.pdf
curl -L -o 2-Foundations-of-LLMs.pdf \
https://github.com/ZJU-LLMs/Foundations-of-LLMs/raw/main/books/Foundations_of_LLMs.pdf
curl -L -o 3-Intro-LLM.pdf \
https://intro-llm.github.io/pdf/intro-llm-book.pdf
curl -L -o 4-Happy-LLM.pdf \
https://github.com/datawhalechina/happy-llm/releases/download/v1.0.1/Happy-LLM-v1.0.1.pdf
wget -O 5-LLMs-from-scratch.pdf "https://pan.quark.cn/s/aa620cef2c15?download=1" \
--header "Referer: https://pan.quark.cn/"
参考课程
- 面向开发者的LLM入门课程(吴恩达课程-中文版) https://github.com/datawhalechina
- 普林斯顿-COS 597G (Fall 2022): Understanding Large Language Models https://cs.princeton.edu/course
- 斯坦福-CS324 - Large Language Models https://stanford-cs324.github.io
教程
4. Huggingface Transformers官方课程 https://huggingface.co/learn/nl
5. Transformers快速入门(快速调包BERT系列) https://transformers.run/
学习方式
6. 力求快速应用 (先调包,再深入学习)
7. 在实践中动手学习,力求搞懂每个关键点
8. 【原理学习】+【代码实践】 + 【输出总结】
基础知识-视频课程
9. 吴恩达机器学习入门 https://coursera.org/learn/mach
10. 李沐讲AI https://space.bilibili.com/1567
11. 台大李宏毅-机器学习 https://speech.ee.ntu.edu.tw/~h
12. 斯坦福NLP cs224n https://web.stanford.edu/class/
基础知识-书籍
13. 深度学习入门:基于Python的理论与实践, numpy实现MLP、卷积的训练
14. 《深度学习进阶:自然语言处理》:numpy实现Transformers、word2vec、RNN的训练
15. Dive In Deep Learning(动手学深度学习) https://d2l.ai/
16. 《神经网络与深度学习》 https://nndl.github.io/
17. 《机器学习方法》:李航的NLP相关的机器学习 + 深度学习知识(按需选学)
强化学习
18. 强化学习教程-蘑菇书EasyRL(李宏毅强化学习+强化学习纲要) https://datawhalechina.github.io
19. 动手学强化学习 https://github.com/boyu-ai/Hands-on-RL https://www.boyuai.com/elites/course/xVqhU42F5IDky94x
|—|—|—|—|—|
| 1. 电子书 PDF | 42 本 | 《大规模语言模型:从理论到实践》《ChatGPT 原理与实战》《Dive-into-Deep-Learning》等 | /docs/books/ | 蓝奏云 ① |
| 2. 视频课程 | 112 GB | 吴恩达 LLM 入门/普林斯顿 COS597G/斯坦福 CS324/李宏毅 2024 更新 | /videos/ | OneDrive ② |
| 3. 开源项目 | 38 个 | llama.cpp、vLLM、DeepSpeed-Chat、NanoGPT、ChatGLM3-Finetune、AutoGen 等 | /projects/ | GitHub 镜像 ③ |
| 4. 数据集 | 25 个 | CLUE、RefinedWeb、SlimPajama、电商评论、小红书、百科问答 | /datasets/ | HuggingFace 镜像 ④ |
| 5. 面试题+答案 | 3 份 | 50 道基础 + 30 道进阶 + 10 道系统设计(含答案) | /interview/ | Notion ⑤ |
| 6. 工具镜像 | 6 个 | qwen1.5-7b-chat-gguf、chatglm3-6b-lora、DeepSpeed-Chat 镜像、vLLM 镜像 | /docker/ | 阿里云 ACRC ⑥ |
三、使用方式
- 复制下方「一键拉取脚本」到 Linux/Mac 终端,全程自动下载并做目录映射(约 120 GB,建议挂 SSD):
bash <(curl -s https://fastly.jsdelivr.net/gh/imaurer/llm-roadmap@main/dl.sh)
-
Windows 用户直接打开「网盘主页」→ 勾选对应文件夹 → 一键转存到自己网盘 → 用客户端批量下载。
主页地址:https://pan.quark.cn/s/8b9d5e7d1a4b (夸克永不过期) -
下载完对照「14 周行动表」里的每周资源编号(⑮⑯…)直接解压即可,路径已硬编码到脚本和 README,开箱即用。
四、常见疑问
- 没有 GPU?
用 Colab Pro(A100 20 GB)即可跑完 W1-W7;W8 之后建议租 2×A100 按小时计费,约 30 元/小时,训 10 小时搞定。 - 时间不够?
把“最小跑通目标”先完成,深入项打勾后补;整个计划可压缩成 8 周。 - 需要论文带读?
在/docs/paper_notes/里已把 45 篇核心论文拆成 5 分钟速读版,配中文脑图。 - 想直接商用?
参考/business/里的《7B 模型落地成本测算表》+《ToB 合同模板》,已含备案/算力/授权三点注意事项。
五、后续更新
仓库每月 1 日同步官方最新 release & paper,点个 watch 即可自动收到 PR 提醒。
有任何报错在 GitHub Issue 贴日志,一般 24 h 内回复。
祝学习顺利,14 周后见!
更多推荐


所有评论(0)