ChatGPT transformer 5篇经典论文以及代码和解读
ChaGPT技术背后的5篇重要论文、代码和解读博客一次整理
·
一次性读懂ChatGPT的技术演进路线,根据李沐老师推荐的5篇经典论文,整理了论文原文、论文解读、Github代码实现。
| 2017 | Transformer | 继MLP、CNN、RNN后的第四大类架构 | ||
| 2018 | GPT | 使用 Transformer 解码器来做预训练 | ||
| 2018 | BERT | Transformer一统NLP的开始 | ||
| 2019 | GPT-2 | 更大的 GPT 模型,朝着zero-shot learning迈了一大步 | ||
| 2020 | GPT-3 | 100倍更大的 GPT-2,few-shot learning效果显著 |
我们整理了这5篇论文的所有相关网页,汇总到
其中亮黄色的为论文原文,每一个卡片为一个网址,每个卡片都有简单的标签。登录后可一键保存到我的收藏,高效快捷地整理您的科研资料

论文列表和说明整理自 GitHub - mli/paper-reading: 深度学习经典、新论文逐段精读,其他博客和代码为个人整理
更多推荐
http://www.webhub123.com/#/home/detail?projectHashid=13892800&ownerUserid=27786724
所有评论(0)