Comments 13
Чем лучше плагина для VSCode "Continue", к которому кроме перечисленного ещё и какая-то IDE присобачена с плагинами?
Это не плагин автокомплита кода, который выдает LLM на основе окружающего кода где стоит курсор разработчки
Это LLM-генератор кода, зависимостей для сборщика, тестов и тулза, которая компилирует, запускает тесты и вносит правки на основе этого в предлагаемый код
Ну я это всё через Continue делаю. Он только новые файлы создавать не умеет, ему надо руками пустой файл создать, и он его заполнит.
Те он предлагает код и перед этим скрытно от вас запускает тесты у вас на рабочей машине, что бы подтвердить, что код рабочий?
Да чур меня, чтобы у меня LLM чего-то скрытно запускала. Она назапускает.
Теперь понял в чём смысл.
Запланировал добавить запуск того что делает ИИ в изолированом докере. Add `--environment` Parameter to Support Docker Execution · Issue #19 · evgenyigumnov/rustsn (github.com)
Интересный подход, таким образом можно с локальными моделями куда лучше работать. Прям намного качественней. Без увеличения моделей и переобучения.
Так и есть! Вот вышел недавно qwen2.5-coder:1.5b весит всего 900 мб - работает быстро даже на скромном железе. Вот тикет:
Ollama "qwen2.5-coder:1.5b" model support (parse problems in "parse_llm_response" functions) · Issue #27 · evgenyigumnov/rustsn (github.com)
Он только на Rust-е пишет или на других языках тоже?
Создание инструмента генерации кода с помощью Rust и локальных LLM от Ollama