Maxnxi29 сен 2025 в 09:15Трансформеры: технология, лежащая в основе больших языковых моделей | Глубокое обучениеУровень сложностиПростойВремя на прочтение16 минОхват и читатели5.8KBig Data * ПереводВсего голосов 7: ↑7 и ↓0+9Добавить в закладки53Комментарии2
S19081 окт 2025 в 08:51Автор опишите матрицы проекции в многомерное пространство внимания/распознавания и как они обучаются
oldmold1 окт 2025 в 12:18Показать предыдущий комментарийЭто перевод с английского, а не авторская статья. Оригиналы статей автора Вы можете найти на сайте 3blue1brown - Animated Math.
Трансформеры: технология, лежащая в основе больших языковых моделей | Глубокое обучение