Как стать автором
Обновить

Почему токенизация – костыль? Передовые подходы для больших языковых моделей следующего поколения

Уровень сложностиСредний
Время на прочтение14 мин
Количество просмотров3.8K
Всего голосов 13: ↑12 и ↓1+14
Комментарии3
1

Комментарии 3

вероятно, речь об этих ребятах: t.me/gonzo_ML

Отличная статья! Токенизация хороша как временная эвристика, но как будто скоро мы достигнем пределов в том, как сильно можно ее улучшить. В этом плане альтернативы типа байт-уровневых моделей и LCM реально крутые. Особенно их динамичные подходы и работа на более высоком уровне, а не просто предсказание следующего токена. Думаю, это то, что нам нужно для будущего. Автор, молодец! Ждем еще таких разборов!

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации

Истории