Comments 5
К сожалению, нельзя работать в офф-лайн режиме со своим локальным OpenAI-compatible сервером даже в Community версии. В таком режиме, сложно что-то протестировать и оценить.
Не очень понял в чем у вас проблема? Многие AI плагины для IDEA позволяют подключить локальные модели. И МСР сервер IDEA также работает на локалхосте. Вот на примере плагина Explyt проверили вызов локальной модели и работу нашего тула в МСР сервере. Это правда не совсем оффлайн мод, но модель находится на одном из серверов внутри компании:

У вас закрытый плагин с нативными бинарниками. Эта опция не работает в офф-лайн с локальной моделью, пока плагину не предоставить доступ в интернет.
Я по прежнему не очень понимаю в чем у вас проблемы.
1) вы можете использовать любой AI плагин для IDEA который поддерживает подключение MCP серверов. Мы использовали Explyt плагин для примера.
2) что касается Explyt, надо выбрать Community/OpenAI-compatible. далее вести URL где находиться ваша LLM. И затем нажать кнопку "обновить" со стрелочками сбоку справа от ввода URL. Или вас ввело заблуждение сообщение что "нужно проверить интернет соединение"? Если так то там перечислено несколько пунктов, один из которых "settings are properly configured" - это как раз наш случай т.к. пустой URL. Надо его ввести и обновить модели.
Соглашусь что сообщение не совсем понятное и в случае пустого URL можно было бы поступить иначе. Исправим в ближайшем релизе.

Опишите свой конкретный сетап, пожалуйста
Закрытость плагина никак не влияет на возможность работать без интернета с локальными моделями, как видно на видео:
https://rutube.ru/video/private/14ad84e60c1f7a95ae830f694de7fa1f/?p=cWNSgPA4JLnJ4dJQud7SOw
(На видео модель запускается на CPU, работает медленно, поэтому видео ускорено)
Explyt Spring. Tools for MCP Server plugin