Comments 12



Очередной нейрослоп из будущего. Алло, сегодня 19 марта 2026 года.
И из прошлого. Qwen 2.5 зарелизили в 2024 году и он никакого отношения ни к хабру, ни к минимаксу не имеет. Интересно, что использовали для генерации текста? Какая-то каша из говна, все перемешано, какие-то странные цены в юанях, где GPT-5 стоит дешевле, чем локальные модели, какие-то странные модели в ценах, откудато высосаны размеры в "24–30 млрд параметров" и тут-же упоминается aws. На генерацию из нормальной сетки не похоже, может что-то маленькое, запущеное на телефоне?
Да сегодня один спамер выкладывал статью, где описывал свой говногенератор-конвейер. Этот мусор уже в промышленных масштабах на сайты и телеграм-каналы вываливают тоннами.
Кто-то уже два лайка поставил...
Не исключено, что это "что-то маленькое" запущено в недOllama xD
Есть у этого куска кода изъян: неявно загружать локальную модель в самой днищенской точности, потому что Ollama не умеет в --fit. Либо вообще загружать дистиллированную модель вместо исходной, потому что репозиторий моделей поименован через одно место. Ну и как вишенка на торте - не сообщать, в какой точности работает модель у облачного поставщика услуг. Нет даже возможности выбирать конкретного поставщика в случае моделей с открытыми весами. Из-за чего качество генераций оставляет желать лучшего даже тогда, когда можно было бы ожидать адекватного.
Особенно улыбнуло предложение поставить Ollama, для того, чтобы в OpenClaw настроить прямой API с MiniMax, а недOllama оставить по причине "пусть будет, её паралельно можно использовать" 🤣
Как будто автор - руководитель проектов Ollama. Просто стесняется нам об этом рассказать)
Ссылки на источники информации ниже:
https://developer.aliyun.com/article/1713705
https://finance.sina.cn/2026-03-18/detail-inhrmayt9340946.d.html?vt=4
https://comate.baidu.com/zh/page/S4vPn0BeGX
https://upcloud.com/global/resources/tutorials/running-llms-on-upcloud-gpus-with-ollama/
https://zhuanlan.zhihu.com/p/2017708069283460954
https://apidog.com/blog/ollama-web-search-api-mcp-server/#benefits-of-adopting-ollamas-new-features
Благодарю за замечание. Перевод с китайского...
Ссылки на ресурсы:
https://developer.aliyun.com/article/1713705
https://finance.sina.cn/2026-03-18/detail-inhrmayt9340946.d.html?vt=4
https://comate.baidu.com/zh/page/S4vPn0BeGX
https://upcloud.com/global/resources/tutorials/running-llms-on-upcloud-gpus-with-ollama/
https://zhuanlan.zhihu.com/p/2017708069283460954
https://apidog.com/blog/ollama-web-search-api-mcp-server/#benefits-of-adopting-ollamas-new-features
Интересно, скоро ли Хабр внедрит тотальный запрет на публикацию нейрослопа? Вакханалия какая-то уже))
Да, нейрослоп )) Но если говорить конкретно про минимакс м2.5-2.7, то нам, в GPTunneL, он пока не очень заходит. Пробовали на нем делать наши продукты по вайбкодингу и созданию презентаций - даже haiku справляется лучше.
Но знаем что конкретно эти китайцы очень стараются, уверен что в скором будущем они подтянут уровень моделей.
MiniMax‑M2.7 теперь доступен через облако Ollama: подробный обзор