ТРАНСФОРМАТОРЪТ

Кодер-декодер

Разбиране на архитектурата на модела

През 2017 г. Vaswani et al. публикува документ, озаглавен „Вниманието е всичко, от което се нуждаете“ за конференцията NeurIPS. Те представиха оригиналната трансформаторна архитектура за машинен превод, работеща по-добре и по-бързо от моделите RNN енкодер-декодер, които бяха масови.