Как стать автором
Обновить

Как мы сделали новых ИИ-помощников для программистов компактными и при этом могучими

Уровень сложностиСредний
Время на прочтение12 мин
Количество просмотров3.2K
Всего голосов 10: ↑10 и ↓0+13
Комментарии5

Комментарии 5

Почему бы не сделать условно 14b модель, но с MOE? В режиме ожидания и в инференсе будет примерно также, но при этом модель будет изначально умнее.

Да, мы делаем и такие эксперименты тоже. Но пока мы видим больше спроса на модели, которые занимают минимум видеопамяти, стараемся дать максимальное качество при адекватно малых ресурсах.

спасибо огромное за статью, читая статью проникся мыслью, как ИИ вообще может знать какой код точно лучше(а какой самый лучший единственный 1 из миллиона), в этом ответе наверно и может быть весь смысл

про колличество парраметров тоже задумался, тоже интересно, 100 миллиардов интов или чего-то там ) занимает память)

Если Лекун вообще против текущего подхода, как они собираются уживаться в одной компании? Или он так и будет разрабатывать свою JEPу?

Спасибо! Пытался поставить continue.dev с deepseek так ничего и не вышло. Везде все платное в итоге. Затестю нано. :)

Зарегистрируйтесь на Хабре, чтобы оставить комментарий