Привет! Да, 100% согласны. Текущий вариант хорош для "самопроверки" (pre-commit), но для роли ревьюера нужно сравнивать ветки целиком.
Добавить чтение диффа между ветками технически несложно, это логичный следующий шаг для нашего CLI. Учтем этот момент и добавим соответствующие аргументы в следующей версии. Спасибо за идею!
Здравствуйте! Мы выбрали формат CLI по одной главной причине - независимость от среды разработки.
Часто разработчики используют тяжелые IDE (например, продукты JetBrains) параллельно с другими редакторами ради AI-плагинов. Это создает постоянное неудобство из-за переключения окон и контекста.
Наш CLI решает эту проблему: вы просто пишете одну команду в привычном терминале прямо перед коммитом и получаете быстрый аудит диффа, независимо от того, в чем вы писали код
Всё так, инструментов действительно много. Но большинство из них - либо платные SaaS-решения, либо довольно простые скрипты, которые требуют отправки кода во внешний API.
Наша цель - сделать open-source инструмент, который:
может работать внутри изолированного контура (On-Premise);
поддерживает локальные модели вроде Ollama;
и понимает контекст проекта через RAG.
Кстати, а какие из существующих ботов вы пробовали на практике? Буду признателен, если поделитесь, что в них понравилось, а что раздражало - это сильно поможет нам не наступить на чужие грабли 🙂
Справедливое замечание - если пытаться запихнуть весь проект в 7B модель. Но архитектура CodeFox работает иначе.
Во-первых, мы не привязаны к одной LLM. В конфиге можно переключиться на Gemini или любой API через OpenRouter (GPT-4, Claude и т.д.), где с длиной контекста проблем нет.
Во-вторых, RAG не предназначен для загрузки “больших данных” в контекст. Его задача - точно извлечь релевантные куски.
В нашем случае это обычно 2–3 файла, связанные с Merge Request.
Для пре-коммит ревью этого более чем достаточно, чтобы ловить реальные баги, а не считать ножки у птичек 🙂
Спасибо большое за развернутое пожелание! Да, мы как раз смотрим в эту сторону. Интеграция с MCP-серверами идеально ложится в нашу концепцию умного ревью. Одно дело - просто читать соседние файлы через RAG, и совсем другое - дать модели доступ к ADR и документации проекта при ревью Merge Request'ов. Это у нас уже есть в планах на следующие мажорные версии)
Добрый день! Да, 100% планируется! :-) Для пайплайнов мы готовим отдельную утилиту - это будут полноценные боты для GitLab CI и GitHub Actions, которые смогут делать ревью и писать inline-комментарии прямо в Merge Request
Добрый день! Спасибо за честный фидбек, вы абсолютно правы - сейчас этот шаг выглядит неинтуитивно, простите за путаницу! 🙏
Позвольте пояснить, как это исправить прямо сейчас:
Запрос токена: Команда init просит токен, так как мы заложили поддержку облака Ollama Cloud. Но для работы строго локально этот шаг нужно просто пропустить (ввести null ). Вы правы, для локального инструмента это сбивает с толку. В следующем минорном патче я сделаю локальный режим дефолтным, чтобы токен запрашивался только при явном выборе облака.
Ошибка 404 (model not found): Эта ошибка от самой Ollama означает, что на вашем жестком диске еще нет весов этой модели. CodeFox пока не умеет скачивать их автоматически. Чтобы всё заработало, нужно предварительно выполнить в терминале: ollama pull gemma3:12b (или имя той модели, которую вы выбрали).
Посмотреть скачанные у вас модели можно командой codefox --command list (или на локальной машине через команду ollama list).
В следующий версии обязательно добавим авто-скачивание моделей и уберу обязательный вопрос про токен в новой Alpha-версии. Будем рады, если дадите инструменту второй шанс!
Привет! Да, 100% согласны. Текущий вариант хорош для "самопроверки" (pre-commit), но для роли ревьюера нужно сравнивать ветки целиком.
Добавить чтение диффа между ветками технически несложно, это логичный следующий шаг для нашего CLI. Учтем этот момент и добавим соответствующие аргументы в следующей версии. Спасибо за идею!
Здравствуйте! Мы выбрали формат CLI по одной главной причине - независимость от среды разработки.
Часто разработчики используют тяжелые IDE (например, продукты JetBrains) параллельно с другими редакторами ради AI-плагинов. Это создает постоянное неудобство из-за переключения окон и контекста.
Наш CLI решает эту проблему: вы просто пишете одну команду в привычном терминале прямо перед коммитом и получаете быстрый аудит диффа, независимо от того, в чем вы писали код
Всё так, инструментов действительно много.
Но большинство из них - либо платные SaaS-решения, либо довольно простые скрипты, которые требуют отправки кода во внешний API.
Наша цель - сделать open-source инструмент, который:
может работать внутри изолированного контура (On-Premise);
поддерживает локальные модели вроде Ollama;
и понимает контекст проекта через RAG.
Кстати, а какие из существующих ботов вы пробовали на практике?
Буду признателен, если поделитесь, что в них понравилось, а что раздражало - это сильно поможет нам не наступить на чужие грабли 🙂
Справедливое замечание - если пытаться запихнуть весь проект в 7B модель.
Но архитектура CodeFox работает иначе.
Во-первых, мы не привязаны к одной LLM. В конфиге можно переключиться на Gemini или любой API через OpenRouter (GPT-4, Claude и т.д.), где с длиной контекста проблем нет.
Во-вторых, RAG не предназначен для загрузки “больших данных” в контекст. Его задача - точно извлечь релевантные куски.
В нашем случае это обычно 2–3 файла, связанные с Merge Request.
Для пре-коммит ревью этого более чем достаточно, чтобы ловить реальные баги, а не считать ножки у птичек 🙂
Спасибо большое за развернутое пожелание! Да, мы как раз смотрим в эту сторону. Интеграция с MCP-серверами идеально ложится в нашу концепцию умного ревью. Одно дело - просто читать соседние файлы через RAG, и совсем другое - дать модели доступ к ADR и документации проекта при ревью Merge Request'ов. Это у нас уже есть в планах на следующие мажорные версии)
Добрый день! Да, 100% планируется! :-)
Для пайплайнов мы готовим отдельную утилиту - это будут полноценные боты для GitLab CI и GitHub Actions, которые смогут делать ревью и писать inline-комментарии прямо в Merge Request
UPDATE (Alpha 0.3.5): Упростили синтаксис!
В версии Alpha 0.3.5 мы отказались от обязательного использования флага
--command. Теперь работа с CLI стала интуитивнее и быстрее.❌ Было:
codefox --command scan✅ Стало:
codefox scan(иcodefox initсоответственно).Чтобы обновиться до актуальной версии, выполните:
pip install --upgrade codefoxили
uv tool upgrade codefoxДобрый день! Спасибо за честный фидбек, вы абсолютно правы - сейчас этот шаг выглядит неинтуитивно, простите за путаницу! 🙏
Позвольте пояснить, как это исправить прямо сейчас:
Запрос токена: Команда
initпросит токен, так как мы заложили поддержку облака Ollama Cloud. Но для работы строго локально этот шаг нужно просто пропустить (ввестиnull). Вы правы, для локального инструмента это сбивает с толку. В следующем минорном патче я сделаю локальный режим дефолтным, чтобы токен запрашивался только при явном выборе облака.Ошибка 404 (model not found): Эта ошибка от самой Ollama означает, что на вашем жестком диске еще нет весов этой модели. CodeFox пока не умеет скачивать их автоматически. Чтобы всё заработало, нужно предварительно выполнить в терминале:
ollama pull gemma3:12b(или имя той модели, которую вы выбрали).Посмотреть скачанные у вас модели можно командой
codefox --command list(или на локальной машине через командуollama list).В следующий версии обязательно добавим авто-скачивание моделей и уберу обязательный вопрос про токен в новой Alpha-версии. Будем рады, если дадите инструменту второй шанс!