Comments 17
Предпочитаю плагин continue. Кроме автодополнения для меня киллер фича cmd+i, позволяет прямо inplace выделенный кусок кода переписать по запросу. Например дописать по шаблону работу с полями, или тесты подправить (ассерты поменять массово). Умеет как в локальные модели, так и в openrouter и прочих облачных провайдеров.
Попробовал настроить под модель Ollama в webstorm, так там баг с выпадающим списком провайдеров, он отображается ниже основного диалога. Может можно как-то через конфиг задать дефолтный провайдер?
Я все настройки через файл конфига задавал, так гораздо удобнее. Дефолтный вроде там можно указать тоже. Плюс вроде в gui нет возможности например настроить чтобы модели ходили и в локальную ollama, но часть в ollama на другую машину, я себе настроил что мелкие модели (3b) для автокомплита локально бегут на маке, а 14b бегут на виндовом компе с 4080 super, ибо гораздо шустрее чем на маке работают там.
Continue не работает корректно с WSL, там issue висит давно уже
Статья очень подробная. Не хватает главного - требования по памяти RAM / VRAM для каждой модели ( 14B, 7B, 3B, 1.5B, 0.5B ) и сравнение работы хотя бы 3 моделей.
Спасибо за статью, сам пользуюсь этим плагином. Не понял только зачем ставить ollama в docker? У меня работает просто в винде, никаких проблем нет.
Спасибо, полезно, надо попробовать для себя настроить локально с continue.
По итогу статьи и комментариев настроил в Android Studio расширение Continue с ollama поднятой без всяких контейнеров на удалённой машине)))
Любопытная штука - код пишет и переписыват ужасно, но вот ответить на вопросы как по коду так и по методам - даже на русском может отлично)
Но без статьи и не подумал бы о такой штуке - так что всё равно было очень полезно)
ProxyAI - не заработал без stream .
Пример бы как RAG прикрутить)
Я поднимал прокси на fastapi + rag qdrant.
Но доки не очень релеванто загрузились
Подскажите пожалуйста, какая версия взлетит на 8гб vram?
Автодополнение кода своими руками (Docker Ollama + JetBrains IDE)