Pull to refresh

Comments 6

Ну вы хоть немного вычитывайте перед публикацией.

А мне модель понравилась. Это первая лама, говорящяя по русски. Плюс маверик прошел мои тесты на логику. Единственный минус - размер. Ждем бегемота, он обещает быть жирным.

Большой плюс - скорость вывода. Да, она по ощущениям чуть тупее того же нового DeepSeek V3. Но пока DS печатает мне вероятно правильный ответ на первый запрос, c Maverick я уже получил неполный ответ, выдал уточнение и получил исправленную версию.
LLM - всего лишь инструмент, и для Maverick явно есть своё место на полке.

Модели из семейства Qwen 2.5 давно говорят по-русски.

Одна из лучших моделей, которые я пробовал.

Пробовал сам, не ориентируясь на чужое мнение. Вопросы задавал по русски. Мне плевать на тесты контекста 120к. Так как знаю, как ошибается Sonnet 3.7 в программировании уже на контексте 15к. И GPT 4.5, на схожем объеме текста. Я задавал задачи уровня "вопрос-ответ".

А владельцы, оформившие ипотеку на Nvidia, пусть дальше сыпят жестью уровня: "похожие на DeepSeek v3 и r1 (предположительно, из-за копирования". Небольшие познания в ИИ разрушают такие доводы.

Llama 4 первая крупная модель, подходящая для CPU. Жду возможной российской адаптации. Перестроения словаря. И, возможного ещё большего роста по качеству для русского языка.

Sign up to leave a comment.

Articles