Transformer 论文 Attention is All You Need 的 pytorch 中文注释代码实现,翻译自 harvardnlp/annotated-transformer 本项目是对原始项目 The Annotated Transformer 的中文翻译和注解版本。旨在使原始项目更加直观、易于理解,并提供中文示例以帮助读者更好地使用该项目。
这里对原始项目进行了中文翻译,同时对一些导致不可运行的代码问题进行了修复。 此外,还结合网上相关资料添加了更详细的中文注解(包含部分自己的理解),以帮助读者更好地理解相关概念和流程。
欢迎提交pr继续进行翻译、修缮和注解工作(比如有兴趣的读者可以试试加上transformer实现中英翻译的示例?)
发现有不妥之处欢迎指正❤
原始项目:harvardnlp/annotated-transformer Copyright (c) 2018 Alexander Rush v2022: Austin Huang, Suraj Subramanian, Jonathan Sum, Khalid Almubarak, and Stella Biderman. Original: Sasha Rush. MIT License
原版博客文章: nlp.seas.harvard.edu