diff --git a/lessons/1-Intro/translations/README.zho.md b/lessons/1-Intro/translations/README.zho.md index 41cf92f9..20f47826 100644 --- a/lessons/1-Intro/translations/README.zho.md +++ b/lessons/1-Intro/translations/README.zho.md @@ -140,7 +140,7 @@ 2018 | [自动机器翻译](https://arxiv.org/abs/1803.05567) (汉译英) 2020 | [图像字幕](https://arxiv.org/abs/2009.13682) -在过去几年中,我们见证了大型语言模型的巨大成功,如 BERT 和 GPT-3。这主要归功于有大量可用的通用文本数据,使我们可以训练模型来捕捉文本的结构和含义,在通用文本集合上对它们进行预训练,然后针对更具体的任务对这些模型进行专门化。我们将在本课程的后半部分学习更多有关 [自然语言处理](.../5-NLP/README.md)的内容。 +在过去几年中,我们见证了大型语言模型的巨大成功,如 BERT 和 GPT-3。这主要归功于有大量可用的通用文本数据,使我们可以训练模型来捕捉文本的结构和含义,在通用文本集合上对它们进行预训练,然后针对更具体的任务对这些模型进行专门化。我们将在本课程的后半部分学习更多有关 [自然语言处理](../5-NLP/README.md)的内容。 ## 🚀 挑战