Skip to content

Transformer 论文 Attention is All You Need 的 pytorch 中文注释代码实现,翻译自harvardnlp/annotated-transformer

License

Notifications You must be signed in to change notification settings

mcxiaoxiao/annotated-transformer-Chinese

Folders and files

NameName
Last commit message
Last commit date

Latest commit

 

History

18 Commits
 
 
 
 
 
 
 
 
 
 

Repository files navigation

annotated-transformer-Chinese

Transformer 论文 Attention is All You Need 的 pytorch 中文注释代码实现,翻译自 harvardnlp/annotated-transformer 本项目是对原始项目 The Annotated Transformer 的中文翻译和注解版本。旨在使原始项目更加直观、易于理解,并提供中文示例以帮助读者更好地使用该项目。

这里对原始项目进行了中文翻译,同时对一些导致不可运行的代码问题进行了修复。 此外,还结合网上相关资料添加了更详细的中文注解(包含部分自己的理解),以帮助读者更好地理解相关概念和流程。

欢迎提交pr继续进行翻译、修缮和注解工作(比如有兴趣的读者可以试试加上transformer实现中英翻译的示例?)

发现有不妥之处欢迎指正❤

原始项目:harvardnlp/annotated-transformer Copyright (c) 2018 Alexander Rush v2022: Austin Huang, Suraj Subramanian, Jonathan Sum, Khalid Almubarak, and Stella Biderman. Original: Sasha Rush. MIT License

原版博客文章: nlp.seas.harvard.edu

复现论文: Attention is All You Need

Open In Colab

image

About

Transformer 论文 Attention is All You Need 的 pytorch 中文注释代码实现,翻译自harvardnlp/annotated-transformer

Topics

Resources

License

Stars

Watchers

Forks

Packages

No packages published