Skip to content
New issue

Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.

By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.

Already on GitHub? Sign in to your account

Traduccion notebook original #23

Open
wants to merge 2 commits into
base: main
Choose a base branch
from

Conversation

NachusS
Copy link
Collaborator

@NachusS NachusS commented Jul 26, 2021

No description provided.

Subo la 1 traducción del Notebook  "Annotated_transformer v01".
@mariagrandury mariagrandury added this to In Review in The Annotated Transformer via automation Jul 26, 2021
@mariagrandury mariagrandury linked an issue Jul 26, 2021 that may be closed by this pull request
@lopezjuanma96
Copy link

En general las traducciones las ví correctas, pero fui encontrando algunos detalles a corregir en el texto. No pude proponerlos como comentarios en el Pull Request porque la cantidad de cambios es muy grande para hacerlo e GitHub y no dispongo de una herramienta para hacerlo localmente de manera simple. Así que los enlisto a continuación para que sean revisados antes del pull request o en un update futuro luego de unir las ramas.

Cambios propuestos:

  • Corregir Table of Contents
  • Hay muchos asteriscos (*) que parecen no sumar a nada, probablemente de querer formatear partes del texto con itálica o negrita y que se pasaron.
  • Cambiar el nombre del notebook por algo más estructurado, puede ser annotated2018.ipynb
  • Agregar link al archivo en github. https://github.com/somosnlp/the-annotated-transformer/blob/main/annotated2018.ipynb
  • Agregar link a Collab
  • Agregar anchor a la Conclusión para que functione el link de "citar" en la primer celda https://stackoverflow.com/questions/28080066/how-to-reference-a-ipython-notebook-cell-in-markdown
  • En "los comentarios se citan en bloque" usaría "Los comentarios propios al notebook se citan en bloque. Todo el código restante corresponde al paper."
  • "Extenden Neural GPU" creo que debería conservarse como tal por ser el nombre de un modelo.
  • No sé si exista una traducción definida para Multi-Head Attention pero antes que Atención Multi-Cabeza no sería mejor Atención Multi-Cabecera o "de Multiples Cabeceras".
  • Los comentarios dentro del código deberían traducirse también.
  • "La atención aditiva calcula la función de compatibilidad utilizando una red de avance.." creo se entiende mejor usando "La atención aditiva calcula la función de compatibilidad utilizando una red feed-forward ..." ya que avance si bien puede ser la traducción puede no asociarse correctamente.
  • "utilizando un código de multiplicación de matrices altamente optimizado." por "utilizando código de multiplicación de matrices altamente optimizado."
  • "Usaremos e texto de torch para el procesamiento por lotes" creo que al "e" está de sobra.
  • Debajo de "Carga de los Datos" en el uso real del modelo, una de la aclaraciones está tanto en inglés como en español.
  • "Inglés a Francés usa un ratio de dropout Pdrop = 0.1, instead of 0.3." por "Inglés a Francés usa un ratio de dropout Pdrop = 0.1, en lugar de 0.3."

Copy link

@lopezjuanma96 lopezjuanma96 left a comment

Choose a reason for hiding this comment

The reason will be displayed to describe this comment to others. Learn more.

Apruebo el review y dejo cambios propuestos en la seccion de discusion

Sign up for free to join this conversation on GitHub. Already have an account? Sign in to comment
Labels
None yet
Projects
Development

Successfully merging this pull request may close these issues.

Traducir el notebook "The Annotated Transformer"
2 participants