Comments 6
Ну вы хоть немного вычитывайте перед публикацией.
Набор нытья
А мне модель понравилась. Это первая лама, говорящяя по русски. Плюс маверик прошел мои тесты на логику. Единственный минус - размер. Ждем бегемота, он обещает быть жирным.
Большой плюс - скорость вывода. Да, она по ощущениям чуть тупее того же нового DeepSeek V3. Но пока DS печатает мне вероятно правильный ответ на первый запрос, c Maverick я уже получил неполный ответ, выдал уточнение и получил исправленную версию.
LLM - всего лишь инструмент, и для Maverick явно есть своё место на полке.
Модели из семейства Qwen 2.5 давно говорят по-русски.
Одна из лучших моделей, которые я пробовал.
Пробовал сам, не ориентируясь на чужое мнение. Вопросы задавал по русски. Мне плевать на тесты контекста 120к. Так как знаю, как ошибается Sonnet 3.7 в программировании уже на контексте 15к. И GPT 4.5, на схожем объеме текста. Я задавал задачи уровня "вопрос-ответ".
А владельцы, оформившие ипотеку на Nvidia, пусть дальше сыпят жестью уровня: "похожие на DeepSeek v3 и r1 (предположительно, из-за копирования". Небольшие познания в ИИ разрушают такие доводы.
Llama 4 первая крупная модель, подходящая для CPU. Жду возможной российской адаптации. Перестроения словаря. И, возможного ещё большего роста по качеству для русского языка.
Llama 4 плоха во всём