Pull to refresh
1
0
Send message

Модели глубоких нейронных сетей sequence-to-sequence на PyTorch (Часть 6)

Reading time25 min
Views6.3K

В этом разделе мы будем реализовывать (слегка измененную версию) модели Transformer из статьи Attention is All You Need. Подобно свёрточной модели Sequence-to-Sequence, Transformer не использует никакой рекуррентности. Он также не использует свёрточные слои. Вместо этого модель полностью состоит из линейных слоев, механизмов внимания и нормализации.

Читать далее
Rating0
Comments0

Information

Rating
Does not participate
Registered
Activity

Specialization

Data Scientist
Python
Natural language processing
Machine learning
Deep Learning
Neural networks
Pytorch