
Комментарии 7



Очередной нейрослоп из будущего. Алло, сегодня 19 марта 2026 года.
И из прошлого. Qwen 2.5 зарелизили в 2024 году и он никакого отношения ни к хабру, ни к минимаксу не имеет. Интересно, что использовали для генерации текста? Какая-то каша из говна, все перемешано, какие-то странные цены в юанях, где GPT-5 стоит дешевле, чем локальные модели, какие-то странные модели в ценах, откудато высосаны размеры в "24–30 млрд параметров" и тут-же упоминается aws. На генерацию из нормальной сетки не похоже, может что-то маленькое, запущеное на телефоне?
Да сегодня один спамер выкладывал статью, где описывал свой говногенератор-конвейер. Этот мусор уже в промышленных масштабах на сайты и телеграм-каналы вываливают тоннами.
Кто-то уже два лайка поставил...
Не исключено, что это "что-то маленькое" запущено в недOllama xD
Есть у этого куска кода изъян: неявно загружать локальную модель в самой днищенской точности, потому что Ollama не умеет в --fit. Либо вообще загружать дистиллированную модель вместо исходной, потому что репозиторий моделей поименован через одно место. Ну и как вишенка на торте - не сообщать, в какой точности работает модель у облачного поставщика услуг. Нет даже возможности выбирать конкретного поставщика в случае моделей с открытыми весами. Из-за чего качество генераций оставляет желать лучшего даже тогда, когда можно было бы ожидать адекватного.
Особенно улыбнуло предложение поставить Ollama, для того, чтобы в OpenClaw настроить прямой API с MiniMax, а недOllama оставить по причине "пусть будет, её паралельно можно использовать" 🤣
Как будто автор - руководитель проектов Ollama. Просто стесняется нам об этом рассказать)
Интересно, скоро ли Хабр внедрит тотальный запрет на публикацию нейрослопа? Вакханалия какая-то уже))
Да, нейрослоп )) Но если говорить конкретно про минимакс м2.5-2.7, то нам, в GPTunneL, он пока не очень заходит. Пробовали на нем делать наши продукты по вайбкодингу и созданию презентаций - даже haiku справляется лучше.
Но знаем что конкретно эти китайцы очень стараются, уверен что в скором будущем они подтянут уровень моделей.
MiniMax‑M2.7 теперь доступен через облако Ollama: подробный обзор