有哪些资源适合学习transformer模型?

摘要:原文:https:mp.weixin.qq.comsqap5mePkP2rVbVSMsaBUMw 欢迎关注公zh: AI-Frontiers 苏剑林大师的博客 序号 发布日期 文章标题 链接 1 2021-03-08 Sinusoi
原文:https://mp.weixin.qq.com/s/qap5mePkP2rVbVSMsaBUMw 欢迎关注公zh: AI-Frontiers 苏剑林大师的博客 序号 发布日期 文章标题 链接 1 2021-03-08 Sinusoidal位置编码追根溯源 https://spaces.ac.cn/archives/8231 2 2021-03-23 博采众长的旋转式位置编码 https://spaces.ac.cn/archives/8265 3 2021-04-22 从Performer到线性Attention https://spaces.ac.cn/archives/8311 4 2021-05-10 二维位置的旋转式位置编码 https://spaces.ac.cn/archives/8397 5 2021-08-06 作为无限维的线性Attention https://spaces.ac.cn/archives/8566 6 2022-12-28 旋转位置编码的完备性分析 https://spaces.ac.cn/archives/9403 7 2023-01-12 长度外推性与局部注意力 https://spaces.ac.cn/archives/9431 8 2023-01-31 长度外推性与位置鲁棒性 https://spaces.ac.cn/archives/9444 9 2023-05-12 一种全局长度外推的新思路 https://spaces.ac.cn/archives/9513 10 2023-07-06 RoPE是一种β进制编码 https://spaces.ac.cn/archives/9675 11 2023-07-31 将β进制位置进行到底 https://spaces.ac.cn/archives/9700 12 2023-08-07 无限外推的ReRoPE? https://spaces.ac.cn/archives/9708 13 2023-08-14 逆用Leaky ReRoPE https://spaces.ac.cn/archives/9723 14 2023-08-24 当HWFA遇见ReRoPE https://spaces.ac.cn/archives/9731 15 2023-11-20 Key归一化助力长度外推 https://spaces.ac.cn/archives/9859 16 2024-01-26 "复盘"长度外推技术 https://spaces.ac.cn/archives/9948 17 2024-03-29 多模态位置编码的简单思考 https://spaces.ac.cn/archives/10040 18 2024-05-29 RoPE的底数选择原则 https://spaces.ac.cn/archives/10122 19 2025-04-18 第二类旋转位置编码 https://spaces.ac.cn/archives/10862 20 2025-05-04 MLA好在哪里?(上) https://spaces.ac.cn/archives/10907 21 2025-07-10 MLA好在哪里?(下) https://spaces.ac.cn/archives/11111 入门系列 序号 发布日期 文章标题 链接 备注 1 2017-06-12 Attention Is All You Need https://arxiv.org/abs/1706.03762 Transformer 的奠基之作,定义了整个领域的演进方向 2 2018-06-27 The Illustrated Transformer http://jalammar.github.io/illustrated-transformer/ 图解Transformer | The Illustrated Transformer 视觉化讲解的行业标准,极大地降低了直观理解的门槛 3 2023-01-27 The Transformer Family (Lilian Weng) https://lilianweng.github.io/posts/2023-01-27-the-transformer-family-v2/ https://lilianweng.github.io/posts/2020-04-07-the-transformer-family/ 由 OpenAI 首席研究员撰写,提供了严谨的架构演进综述与技术总结 4 2021-01-11 Breaking Down the Transformer https://aman.ai/primers/ai/transformers/ 对架构组件进行模块化拆解,适合从工程角度深入理解 5 2020-12-24 How Transformers work in deep learning and NLP: an intuitive introduction https://theaisummer.com/transformer/ 起源、核心架构(如自注意力机制)及其在深度学习领域的影响,是学习NLP基础架构的深度技术教程 6 2018-04-03 The Annotated Transformer https://nlp.seas.harvard.edu/annotated-transformer/ https://github.com/harvardnlp/annotated-transformer 提供 Transformer 论文的逐行代码实现与详细解析 7 2019-08-18 Transformers from scratch https://peterbloem.nl/blog/transformers 详细讲解自注意力机制,附带完整的 PyTorch 代码,教你从零实现一个 Transformer 8 2018-06-24 Attention? Attention! https://lilianweng.github.io/posts/2018-06-24-attention/ 深入讲解各类注意力机制的原理与发展,适合想要深入理解注意力机制的学习者 github开源生态 仓库名称 网址 定位与特色 awesome-transformer-nlp https://github.com/cedrickchee/awesome-transformer-nlp 全球最受欢迎的 Transformer 资源列表,更新频率高 awesome-transformer (ICTNLP) https://github.com/ictnlp/awesome-transformer 侧重于模型实现与 WMT 翻译基准测试的可复现性 awesome-transformers (abacaj) https://github.com/abacaj/awesome-transformers 聚焦于模型许可协议与模型来源,适合企业级选型 Transformers-Recipe https://github.com/dair-ai/Transformers-Recipe 旨在提供一份“从入门到精通”的结构化学习路线图 Awesome-Visual-Transformer https://github.com/dk-liang/Awesome-Visual-Transformer 专注于视觉 Transformer (ViT) 及其在医学成像等领域的应用 Awesome-Transformer-Attention (视觉Transformer) https://github.com/cmhungsteve/Awesome-Transformer-Attention 最全面的视觉 Transformer/Attention 论文列表,包含代码和相关网站 Awesome-Transformer-Visualization https://github.com/Ki-Seki/Awesome-Transformer-Visualization Transformer 可视化工具汇总,包括 Transformer Explainer、GemmaScope 等 BertViz https://github.com/jessevig/bertvizS Transformer 注意力可视化工具,支持 Head View、Model View、Neuron View 三重视图,可直观查看模型的注意力权重分布 官方与第三方高性能框架 框架/项目 网址 适用场景 Tensor2Tensor (Google) https://github.com/tensorflow/tensor2tensor Transformer 的官方原始实现,基于 TensorFlow OpenNMT-py (Harvard) https://github.com/OpenNMT/OpenNMT-py 基于 PyTorch 的机器翻译工具包,因其高可扩展性广受好评 Fairseq (Meta AI) https://github.com/facebookresearch/fairseq Meta 开发的高性能序列建模工具,RoBERTa 等模型即诞生于此 X-Transformers https://github.com/lucidrains/x-transformers 提供简洁且功能完整的全注意力实现,适合实验性研究 transformers https://github.com/huggingface/transformers 提供最先进的预训练模型,用于处理 NLP、图像及音频任务。 课程学习 提供方 课程 核心技能点 DeepLearning.AI https://www.deeplearning.ai/courses/deep-learning-specialization/ RNN/LSTM/Transformer 的理论与实践 Stanford https://web.stanford.edu/class/cs224n/ https://web.stanford.edu/class/archive/cs/cs224n/cs224n.1214/ https://web.stanford.edu/class/cs25/ 经典的深度学习自然语言处理(CS224N)课程主页,涵盖了Transformer、语言模型等前沿NLP技术与讲义。 Hugging Face https://github.com/huggingface/course Hugging Face 官方出品的免费开源课程,基于其生态教学,覆盖 Transformer 在文本、音频等多模态任务的应用,部分课程支持中文 亚马逊 https://github.com/d2l-ai/d2l-en 亚马逊科学家团队维护的互动式深度学习书籍,涵盖 Transformer 理论推导与 PyTorch、TensorFlow、MXNet 多框架代码实现,被全球 500 余所名校用作教材。