Обновить

MiniMax‑M2.7 теперь доступен через облако Ollama: подробный обзор

Уровень сложностиСредний
Время на прочтение7 мин
Охват и читатели4.4K
Всего голосов 2: ↑2 и ↓0+3
Комментарии7

Комментарии 7

Очередной нейрослоп из будущего. Алло, сегодня 19 марта 2026 года.

И из прошлого. Qwen 2.5 зарелизили в 2024 году и он никакого отношения ни к хабру, ни к минимаксу не имеет. Интересно, что использовали для генерации текста? Какая-то каша из говна, все перемешано, какие-то странные цены в юанях, где GPT-5 стоит дешевле, чем локальные модели, какие-то странные модели в ценах, откудато высосаны размеры в "24–30 млрд параметров" и тут-же упоминается aws. На генерацию из нормальной сетки не похоже, может что-то маленькое, запущеное на телефоне?

Да сегодня один спамер выкладывал статью, где описывал свой говногенератор-конвейер. Этот мусор уже в промышленных масштабах на сайты и телеграм-каналы вываливают тоннами.

Кто-то уже два лайка поставил...

Не исключено, что это "что-то маленькое" запущено в недOllama xD

Есть у этого куска кода изъян: неявно загружать локальную модель в самой днищенской точности, потому что Ollama не умеет в --fit. Либо вообще загружать дистиллированную модель вместо исходной, потому что репозиторий моделей поименован через одно место. Ну и как вишенка на торте - не сообщать, в какой точности работает модель у облачного поставщика услуг. Нет даже возможности выбирать конкретного поставщика в случае моделей с открытыми весами. Из-за чего качество генераций оставляет желать лучшего даже тогда, когда можно было бы ожидать адекватного.

Особенно улыбнуло предложение поставить Ollama, для того, чтобы в OpenClaw настроить прямой API с MiniMax, а недOllama оставить по причине "пусть будет, её паралельно можно использовать" 🤣

Как будто автор - руководитель проектов Ollama. Просто стесняется нам об этом рассказать)

Интересно, скоро ли Хабр внедрит тотальный запрет на публикацию нейрослопа? Вакханалия какая-то уже))

Да, нейрослоп )) Но если говорить конкретно про минимакс м2.5-2.7, то нам, в GPTunneL, он пока не очень заходит. Пробовали на нем делать наши продукты по вайбкодингу и созданию презентаций - даже haiku справляется лучше.

Но знаем что конкретно эти китайцы очень стараются, уверен что в скором будущем они подтянут уровень моделей.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Публикации