ТРАНСФОРМАТОРЪТ
Кодер-декодер
Разбиране на архитектурата на модела
През 2017 г. Vaswani et al. публикува документ, озаглавен „Вниманието е всичко, от което се нуждаете“ за конференцията NeurIPS. Те представиха оригиналната трансформаторна архитектура за машинен превод, работеща по-добре и по-бързо от моделите RNN енкодер-декодер, които бяха масови.