Pull to refresh

Comments 17

Предпочитаю плагин continue. Кроме автодополнения для меня киллер фича cmd+i, позволяет прямо inplace выделенный кусок кода переписать по запросу. Например дописать по шаблону работу с полями, или тесты подправить (ассерты поменять массово). Умеет как в локальные модели, так и в openrouter и прочих облачных провайдеров.

Попробовал настроить под модель Ollama в webstorm, так там баг с выпадающим списком провайдеров, он отображается ниже основного диалога. Может можно как-то через конфиг задать дефолтный провайдер?

Я все настройки через файл конфига задавал, так гораздо удобнее. Дефолтный вроде там можно указать тоже. Плюс вроде в gui нет возможности например настроить чтобы модели ходили и в локальную ollama, но часть в ollama на другую машину, я себе настроил что мелкие модели (3b) для автокомплита локально бегут на маке, а 14b бегут на виндовом компе с 4080 super, ибо гораздо шустрее чем на маке работают там.

В общем нужно читать доку в любом случае :) Спасибо.

Continue не работает корректно с WSL, там issue висит давно уже

Возможно. Винду только для игр использую, так что не сталкивался. Для разработки всегда раньше линукс использовал, сейчас мак. Но для кого то действительно может быть проблемой.

Статья очень подробная. Не хватает главного - требования по памяти RAM / VRAM для каждой модели ( 14B, 7B, 3B, 1.5B, 0.5B ) и сравнение работы хотя бы 3 моделей.

Спасибо за мнение!

Подумаю, смогу ли провести такое сравнение.

Спасибо за статью, сам пользуюсь этим плагином. Не понял только зачем ставить ollama в docker? У меня работает просто в винде, никаких проблем нет.

Привет!

ollama в docker потому, что изначально упор идёт на удалённый сервер с gpu, и просто удачно совпало, что на wsl инструкция тоже работает, поэтому добавил

Спасибо, полезно, надо попробовать для себя настроить локально с continue. 

По итогу статьи и комментариев настроил в Android Studio расширение Continue с ollama поднятой без всяких контейнеров на удалённой машине)))
Любопытная штука - код пишет и переписыват ужасно, но вот ответить на вопросы как по коду так и по методам - даже на русском может отлично)

Но без статьи и не подумал бы о такой штуке - так что всё равно было очень полезно)

ProxyAI - не заработал без stream .
Пример бы как RAG прикрутить)
Я поднимал прокси на fastapi + rag qdrant.
Но доки не очень релеванто загрузились

Подскажите пожалуйста, какая версия взлетит на 8гб vram?

Можете попробовать на 7B, но это прям совсем впритык будет. Лучше взять 3B

7b работает, спасибо

От квантизации ведь зависит. Та же ollama по дефолту обычно 4q предлагает. В таком варианте у меня свежая qwen3:30b-a3b занимает 21 гиг vram.

Sign up to leave a comment.