Danyache Mar 30 at 20:10Attention is Not All You Need: как менялась архитектура трансформераLevel of difficultyHardReading time4 minViews5.7KArtificial IntelligenceNatural Language Processing*Total votes 23: ↑23 and ↓0+23Add to bookmarks65Comments4
Danyache Apr 1 at 12:27Show previous commentНу, статья довольно специализированная, думаю, она просто не для всех)
DarkSold Apr 1 at 13:05Show previous commentРаньше подобных "специфичных" больше было. Но сейчас хабр превращается в Пикабу. Как раз, после того, как объеденили хабр с Мегамозг и гиктаймс.
Attention is Not All You Need: как менялась архитектура трансформера