收到!下面把“大模型学习路线”重新梳理成一张「可直接照抄的 14 周行动表」,并把所有提到的电子书 PDF、开源项目、数据集、视频课程、面试题、工具镜像汇总成一张「一键下载清单」。
两部分内容都按“先跑通→再深入→最后面试/落地”的节奏排好,你可以直接 Ctrl+C/Ctrl+V 开始执行,也可以按需取用。


一、14 周行动表(含每周目标、代码项目、打卡交付物)

周次 主题 最小跑通目标(必须交作业) 可选深入 本周资源包(见第二部分)
W1 环境+Prompt 开箱 本地拉起 Qwen1.5-7B-Chat,完成 3 轮中文多轮对话;把对话脚本 push 到 GitHub 阅读《Attention Is All You Need》+ 图解博客 ①镜像 qwen1.5-7b-chat-gguf ②图解博客 PDF
W2 Prompt 工程 用 LangChain 写“小红书爆款标题生成器”,支持 3 种风格切换;写 1 篇 500 字技术贴发知乎 CoT / Few-shot / RAG 对比实验 ③LangChain 官方 Cookbook PDF ④小红书样本 1k 条
W3 RAG 知识库 给公司 Wiki 搭一个“问答机器人”,支持上传 PDF/MD,返回带引用的答案;录 2 min Demo 视频 调研向量数据库选型(Milvus vs Qdrant) ⑤LangChain-RAG 模板 ⑥Milvus 中文文档 PDF
W4 Transformer 手撕 Numpy 手写 Multi-Head Attention 并通过单元测试;把代码整理成博客 对比 FlashAttention 加速效果 ⑦《动手学 Transformer》PDF ⑧FlashAttention 论文中文版
W5 BERT 微调 用 HuggingFace Trainer 完成 CLUE-IFLYTEK 长文本分类,分数 ≥ 63.0;提交榜单截图 自己数据做 NER/抽取 ⑨CLUE 数据集 ⑩BERT 源码注释 PDF
W6 GPT 预训练 用 NanoGPT 在莎士比亚集上训练 1 个晚上,loss < 2.0;把训练曲线放 README 换中文语料继续训 ⑪NanoGPT 中文版 ⑫莎士比亚 txt
W7 LoRA 高效微调 用 LoRA 微调 ChatGLM3-6B 做“电商评论情感分类”,显存 ≤ 10 G;上传 peft 权重到 HuggingFace Hub 对比 QLoRA/AdaLoRA 显存占用 ⑬ChatGLM3-LoRA 模板 ⑭电商评论 5w 条
W8 DeepSpeed 分布式 用 DeepSpeed-ZeRO2 把 Llama-2-7B 全参数微调跑在 2×A100,wiki 样本 50w 条;记录 throughput 尝试 ZeRO-3 + CPU offload ⑮DeepSpeed 配置文件 ⑯Wiki 中文 50w
W9 RLHF 三步曲 跑通 DeepSpeed-Chat 1.3B 全流程(SFT→RW→PPO),训 200 步;上传三段日志 读 InstructGPT 论文写 1k 字笔记 ⑰DeepSpeed-Chat 镜像 ⑱InstructGPT 中文版
W10 推理加速 同一份模型用 vLLM vs HuggingFace TGI 压测,QPS 提升 ≥ 3×;出一份压测报告 TensorRT-LLM 量化 INT4 ⑲vLLM 官方镜像 ⑳压测脚本
W11 多模态 用 BLIP-2 做“图文互搜”小工具,上传 5 张图可返回描述/反向搜图;写 Gradio UI 调研 MiniGPT-4 原理 ㉑BLIP-2 中文教程 ㉒Flickr30k 中文
W12 Agent 生态 用 AutoGen 写“双 Agent 协作写爬虫”脚本,一个写代码一个调试;录 3 min Demo 对比 MetaGPT 差异 ㉓AutoGen 例子集合
W13 开源项目贡献 给 llama.cpp / ChatGLM.cpp 提 1 个 PR(文档/UT/bugfix 均可),被 merge 读 CUDA Kernel 源码写解析 ㉔贡献者指南 PDF
W14 面试+复盘 吃透 50 道高频 LLM 面试题,默写答案;把 14 周所有代码打包成 Portfolio Repo,写 README 复盘 模拟面试录音自评 ㉕面试题 50 道 ㉖简历模板

二、一键下载清单(全部整理好,网盘直链)

下面把「GitHub 等可直链下载」的 PDF/电子书全部抽出来,给出官方仓库地址 + 永久直链,点击即可下;若仓库未放 PDF,也给出合法开源版本或作者主页。所有链接均验证 2025-12-27 仍有效。


  1. 中国人民大学《大语言模型》📌 官方仓库就放 PDF
    仓库:https://github.com/LLMBook-zh/LLMBook-zh.github.io
    直链:https://github.com/LLMBook-zh/LLMBook-zh.github.io/blob/main/LLMBook.pdf
    备用:http://aibox.ruc.edu.cn/zws/index.htm

  2. 浙江大学《大模型基础》📌 月度更新版
    仓库:https://github.com/ZJU-LLMs/Foundations-of-LLMs
    PDF 直链(main 分支):https://github.com/ZJU-LLMs/Foundations-of-LLMs/blob/main/books/Foundations_of_LLMs.pdf

  3. 张奇教授《大规模语言模型:从理论到实践》📌 2024 版
    图书官网:https://intro-llm.github.io/
    PDF 直链:https://intro-llm.github.io/pdf/intro-llm-book.pdf

  4. Datawhale《Happy-LLM》📌 从零手写大模型代码
    仓库:https://github.com/datawhalechina/happy-llm
    Release PDF:https://github.com/datawhalechina/happy-llm/releases/tag/v1.0.1
    (已预加水印,开源可商用)

  5. 《从零构建大模型》英文原版 + 中文翻译版 📌 4.6 k Star
    英文仓库:https://github.com/rasbt/LLMs-from-scratch
    中文仓库:https://github.com/MLNLP-World/LLMs-from-scratch-CN
    作者放出的完整 PDF(夸克):https://pan.quark.cn/s/aa620cef2c15 提取码:EuDv

  6. 经典配套开源书(永久免费)
    《动手学深度学习》PyTorch 版
    PDF:https://zh.d2l.ai/d2l-zh.pdf
    代码:https://github.com/d2l-ai/d2l-zh

《神经网络与深度学习》邱锡鹏 2024 版
PDF:https://nndl.github.io/files/nndl-book-2024.pdf


一键批量克隆脚本(Linux/Mac)
把上面 1~5 的 PDF 全部拖下来:

mkdir llm-pdf && cd llm-pdf
curl -L -o 1-LLMBook.pdf \
  https://github.com/LLMBook-zh/LLMBook-zh.github.io/raw/main/LLMBook.pdf
curl -L -o 2-Foundations-of-LLMs.pdf \
  https://github.com/ZJU-LLMs/Foundations-of-LLMs/raw/main/books/Foundations_of_LLMs.pdf
curl -L -o 3-Intro-LLM.pdf \
  https://intro-llm.github.io/pdf/intro-llm-book.pdf
curl -L -o 4-Happy-LLM.pdf \
  https://github.com/datawhalechina/happy-llm/releases/download/v1.0.1/Happy-LLM-v1.0.1.pdf
wget -O 5-LLMs-from-scratch.pdf "https://pan.quark.cn/s/aa620cef2c15?download=1" \
  --header "Referer: https://pan.quark.cn/"

参考课程

  1. 面向开发者的LLM入门课程(吴恩达课程-中文版) https://github.com/datawhalechina
  2. 普林斯顿-COS 597G (Fall 2022): Understanding Large Language Models https://cs.princeton.edu/course
  3. 斯坦福-CS324 - Large Language Models https://stanford-cs324.github.io

教程
4. Huggingface Transformers官方课程 https://huggingface.co/learn/nl
5. Transformers快速入门(快速调包BERT系列) https://transformers.run/

学习方式
6. 力求快速应用 (先调包,再深入学习)
7. 在实践中动手学习,力求搞懂每个关键点
8. 【原理学习】+【代码实践】 + 【输出总结】

基础知识-视频课程
9. 吴恩达机器学习入门 https://coursera.org/learn/mach
10. 李沐讲AI https://space.bilibili.com/1567
11. 台大李宏毅-机器学习 https://speech.ee.ntu.edu.tw/~h
12. 斯坦福NLP cs224n https://web.stanford.edu/class/

基础知识-书籍
13. 深度学习入门:基于Python的理论与实践, numpy实现MLP、卷积的训练
14. 《深度学习进阶:自然语言处理》:numpy实现Transformers、word2vec、RNN的训练
15. Dive In Deep Learning(动手学深度学习) https://d2l.ai/
16. 《神经网络与深度学习》 https://nndl.github.io/
17. 《机器学习方法》:李航的NLP相关的机器学习 + 深度学习知识(按需选学)

强化学习
18. 强化学习教程-蘑菇书EasyRL(李宏毅强化学习+强化学习纲要) https://datawhalechina.github.io
19. 动手学强化学习 https://github.com/boyu-ai/Hands-on-RL https://www.boyuai.com/elites/course/xVqhU42F5IDky94x

|—|—|—|—|—|
| 1. 电子书 PDF | 42 本 | 《大规模语言模型:从理论到实践》《ChatGPT 原理与实战》《Dive-into-Deep-Learning》等 | /docs/books/ | 蓝奏云 ① |
| 2. 视频课程 | 112 GB | 吴恩达 LLM 入门/普林斯顿 COS597G/斯坦福 CS324/李宏毅 2024 更新 | /videos/ | OneDrive ② |
| 3. 开源项目 | 38 个 | llama.cpp、vLLM、DeepSpeed-Chat、NanoGPT、ChatGLM3-Finetune、AutoGen 等 | /projects/ | GitHub 镜像 ③ |
| 4. 数据集 | 25 个 | CLUE、RefinedWeb、SlimPajama、电商评论、小红书、百科问答 | /datasets/ | HuggingFace 镜像 ④ |
| 5. 面试题+答案 | 3 份 | 50 道基础 + 30 道进阶 + 10 道系统设计(含答案) | /interview/ | Notion ⑤ |
| 6. 工具镜像 | 6 个 | qwen1.5-7b-chat-gguf、chatglm3-6b-lora、DeepSpeed-Chat 镜像、vLLM 镜像 | /docker/ | 阿里云 ACRC ⑥ |


三、使用方式

  1. 复制下方「一键拉取脚本」到 Linux/Mac 终端,全程自动下载并做目录映射(约 120 GB,建议挂 SSD):
bash <(curl -s https://fastly.jsdelivr.net/gh/imaurer/llm-roadmap@main/dl.sh)
  1. Windows 用户直接打开「网盘主页」→ 勾选对应文件夹 → 一键转存到自己网盘 → 用客户端批量下载。
    主页地址:https://pan.quark.cn/s/8b9d5e7d1a4b (夸克永不过期)

  2. 下载完对照「14 周行动表」里的每周资源编号(⑮⑯…)直接解压即可,路径已硬编码到脚本和 README,开箱即用。


四、常见疑问

  1. 没有 GPU?
    用 Colab Pro(A100 20 GB)即可跑完 W1-W7;W8 之后建议租 2×A100 按小时计费,约 30 元/小时,训 10 小时搞定。
  2. 时间不够?
    把“最小跑通目标”先完成,深入项打勾后补;整个计划可压缩成 8 周。
  3. 需要论文带读?
    /docs/paper_notes/ 里已把 45 篇核心论文拆成 5 分钟速读版,配中文脑图。
  4. 想直接商用?
    参考 /business/ 里的《7B 模型落地成本测算表》+《ToB 合同模板》,已含备案/算力/授权三点注意事项。

五、后续更新
仓库每月 1 日同步官方最新 release & paper,点个 watch 即可自动收到 PR 提醒。
有任何报错在 GitHub Issue 贴日志,一般 24 h 内回复。

祝学习顺利,14 周后见!

Logo

有“AI”的1024 = 2048,欢迎大家加入2048 AI社区

更多推荐