<?xml version="1.0" encoding="UTF-8"?>

<rss version="2.0" xmlns:dc="http://purl.org/dc/elements/1.1/" >

  <channel>
    <title><![CDATA[Комментарии / Профиль codefoxai]]></title>
    <link>https://habr.com/ru/users/codefoxai/comments/</link>
    <description><![CDATA[Хабр: комментарии пользователя codefoxai]]></description>
    <language>ru</language>
    <managingEditor>editor@habr.com</managingEditor>
    <generator>habr.com</generator>
    <pubDate>Mon, 11 May 2026 16:35:47 GMT</pubDate>
    
    
      <image>
        <link>https://habr.com/ru/</link>
        <url>https://habrastorage.org/webt/ym/el/wk/ymelwk3zy1gawz4nkejl_-ammtc.png</url>
        <title>Хабр</title>
      </image>
    

    
      

      
        
  
    <item>
      <title>14.03.2026 19:23:51 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1010048/#comment_29665364</guid>
      <link>https://habr.com/ru/articles/1010048/#comment_29665364</link>
      <description><![CDATA[<p>Тут скорее сыграл человеческий фактор - честно говоря, я просто не заметил, что уже была доступна версия DeepSeek v3.2 на момент тестирования. Спасибо, что обратили внимание. Попробую прогнать её по той же методике и сравнить результаты.</p>]]></description>
      <pubDate>Sat, 14 Mar 2026 19:23:51 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>14.03.2026 14:39:46 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1010048/#comment_29664592</guid>
      <link>https://habr.com/ru/articles/1010048/#comment_29664592</link>
      <description><![CDATA[<p>По сути у вас есть несколько справедливых замечаний.<br>Да, в статье стоило чётче разделить локальный Ollama и Ollama Cloud: аргумент про NDA относится именно к локальному запуску, а не должен автоматически переноситься на облачный сервис.<br>Да, отсутствие данных о точности/квантовании - это ограничение сравнения, и его стоило обозначить явно.<br>Моя цель была не доказать, что Ollama Cloud "лучше всех", а сравнить качество ответов моделей в конкретном интерфейсе и сценарии code review. Но замечание про прозрачность провайдеров и data policy для облака абсолютно уместно.</p>]]></description>
      <pubDate>Sat, 14 Mar 2026 14:39:46 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>14.03.2026 09:31:12 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1010048/#comment_29663624</guid>
      <link>https://habr.com/ru/articles/1010048/#comment_29663624</link>
      <description><![CDATA[<p>Спасибо за идею, список действительно интересный.</p><p>GLM-5, Qwen3 Coder Next и Kimi 2.5 сейчас выглядят довольно перспективно для задач анализа кода. Я пока не успел протестировать их в рамках этого эксперимента, но это хороший кандидат для следующего сравнения моделей.</p><p>Думаю попробовать провести ещё один эксперимент и добавить туда больше моделей, чтобы посмотреть, как они ведут себя на реальных Pull Request и насколько отличаются по глубине анализа и качеству предложенных исправлений.</p><p>Спасибо за предложение - обязательно возьму их в список для следующей статьи)</p>]]></description>
      <pubDate>Sat, 14 Mar 2026 09:31:12 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>14.03.2026 09:29:15 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1010048/#comment_29663616</guid>
      <link>https://habr.com/ru/articles/1010048/#comment_29663616</link>
      <description><![CDATA[<p>Спасибо за вопрос, на самом деле всё устроено немного сложнее, чем просто <code>grep</code> по файлам.</p><p>В моём случае RAG реализован через комбинацию локальных эмбеддингов, векторной базы данных и алгоритма BM25. Если кратко описать процесс:</p><ol><li><p>При первом запуске инструмент читает файлы репозитория, разбивает их на фрагменты и строит для них векторные представления (embeddings).</p></li><li><p>Эти данные индексируются и кешируются, чтобы при последующих запусках не перегружать ПК или сервер повторной обработкой всей кодовой базы.</p></li><li><p>Когда модели нужен дополнительный контекст, выполняется поиск по индексу: используется комбинация семантического поиска по эмбеддингам и BM25, чтобы находить наиболее релевантные куски кода.</p></li><li><p>Найденные фрагменты затем передаются модели как дополнительный контекст для анализа PR.</p></li></ol><p>По сути это гибридный поиск: частично семантический, частично текстовый, чтобы лучше находить нужные участки кода.</p><p>Если честно, вся реализация получилась довольно объёмной, и, пожалуй, это тема для отдельной статьи, где можно подробно разобрать архитектуру RAG в проекте и все нюансы его работы.</p>]]></description>
      <pubDate>Sat, 14 Mar 2026 09:29:15 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>14.03.2026 06:18:30 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1010048/#comment_29663074</guid>
      <link>https://habr.com/ru/articles/1010048/#comment_29663074</link>
      <description><![CDATA[<p>Хороший вопрос. Я не оценивал модели только по количеству найденных проблем, потому что это действительно может искажать результат. Если модель нашла одну проблему, это само по себе не означает, что ревью было качественным.</p><p>Поэтому в статье используется несколько метрик: accuracy, depth, hallucination, practical fixes и human acceptance rate. Я смотрел не только на количество комментариев, но и на то, насколько они реальны, аргументированы и полезны разработчику.</p><p>Например, модель может написать 27 комментариев, но если половина из них - поверхностные замечания или ложные срабатывания, то такое ревью не обязательно будет лучше, чем 9 более точных и полезных комментариев.</p><p>Поэтому итоговая оценка складывается из качества замечаний, их применимости и вероятности того, что разработчик действительно воспользуется рекомендациями.</p>]]></description>
      <pubDate>Sat, 14 Mar 2026 06:18:30 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>13.03.2026 21:47:09 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1010048/#comment_29662524</guid>
      <link>https://habr.com/ru/articles/1010048/#comment_29662524</link>
      <description><![CDATA[<p>Спасибо за интересный вопрос. На практике я действительно ежедневно использую свой инструмент для этих целей на работе, и по наблюдениям количество багов, которые доходят до этапа ревью или продакшена, снизилось примерно в 1.5-2 раза.</p><p>Пока это скорее практическое наблюдение, а не формализованная метрика - я не проводил отдельного замера времени ревью «до/после» или количества багфиксов после мержа. Но идея очень интересная: можно попробовать сделать более системный эксперимент и замерить такие показатели.</p><p>Спасибо за идею - это действительно может стать хорошим продолжением статьи)</p>]]></description>
      <pubDate>Fri, 13 Mar 2026 21:47:09 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>13.03.2026 20:45:22 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1010048/#comment_29662394</guid>
      <link>https://habr.com/ru/articles/1010048/#comment_29662394</link>
      <description><![CDATA[<p>Помимо diff, как я писал в статье, я использовал RAG. Это позволяло моделям при необходимости получать дополнительный контекст из файлов репозитория и анализировать не только изменения в PR, но и связанные части кодовой базы</p>]]></description>
      <pubDate>Fri, 13 Mar 2026 20:45:22 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>05.03.2026 09:47:53 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1006258/#comment_29621800</guid>
      <link>https://habr.com/ru/articles/1006258/#comment_29621800</link>
      <description><![CDATA[<p>Привет! Да, 100% согласны. Текущий вариант хорош для "самопроверки" (pre-commit), но для роли ревьюера нужно сравнивать ветки целиком.</p><p>Добавить чтение диффа между ветками технически несложно, это логичный следующий шаг для нашего CLI. Учтем этот момент и добавим соответствующие аргументы в следующей версии. Спасибо за идею!</p>]]></description>
      <pubDate>Thu, 05 Mar 2026 09:47:53 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>05.03.2026 07:36:02 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1006258/#comment_29621164</guid>
      <link>https://habr.com/ru/articles/1006258/#comment_29621164</link>
      <description><![CDATA[<p>Здравствуйте! Мы выбрали формат CLI по одной главной причине - независимость от среды разработки.</p><p>Часто разработчики используют тяжелые IDE (например, продукты JetBrains) параллельно с другими редакторами ради AI-плагинов. Это создает постоянное неудобство из-за переключения окон и контекста.</p><p>Наш CLI решает эту проблему: вы просто пишете одну команду в привычном терминале прямо перед коммитом и получаете быстрый аудит диффа, независимо от того, в чем вы писали код</p>]]></description>
      <pubDate>Thu, 05 Mar 2026 07:36:02 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>04.03.2026 22:59:52 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1006258/#comment_29620212</guid>
      <link>https://habr.com/ru/articles/1006258/#comment_29620212</link>
      <description><![CDATA[<p>Всё так, инструментов действительно много.<br>Но большинство из них - либо платные SaaS-решения, либо довольно простые скрипты, которые требуют отправки кода во внешний API.</p><p>Наша цель - сделать open-source инструмент, который:</p><ol><li><p>может работать внутри изолированного контура (On-Premise);</p></li><li><p>поддерживает локальные модели вроде Ollama;</p></li><li><p>и понимает контекст проекта через RAG.</p></li></ol><p>Кстати, а какие из существующих ботов вы пробовали на практике?<br>Буду признателен, если поделитесь, что в них понравилось, а что раздражало - это сильно поможет нам не наступить на чужие грабли 🙂</p>]]></description>
      <pubDate>Wed, 04 Mar 2026 22:59:52 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>04.03.2026 22:51:03 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1006258/#comment_29620190</guid>
      <link>https://habr.com/ru/articles/1006258/#comment_29620190</link>
      <description><![CDATA[<p>Справедливое замечание - если пытаться запихнуть весь проект в 7B модель.<br>Но архитектура CodeFox работает иначе.</p><p>Во-первых, мы не привязаны к одной LLM. В конфиге можно переключиться на Gemini или любой API через OpenRouter (GPT-4, Claude и т.д.), где с длиной контекста проблем нет.</p><p>Во-вторых, RAG не предназначен для загрузки “больших данных” в контекст. Его задача - точно извлечь релевантные куски.</p><p>В нашем случае это обычно 2–3 файла, связанные с Merge Request.</p><p>Для пре-коммит ревью этого более чем достаточно, чтобы ловить реальные баги, а не считать ножки у птичек 🙂</p>]]></description>
      <pubDate>Wed, 04 Mar 2026 22:51:03 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>04.03.2026 22:46:41 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1006258/#comment_29620184</guid>
      <link>https://habr.com/ru/articles/1006258/#comment_29620184</link>
      <description><![CDATA[<p>Спасибо большое за развернутое пожелание! Да, мы как раз смотрим в эту сторону. Интеграция с MCP-серверами идеально ложится в нашу концепцию умного ревью. Одно дело - просто читать соседние файлы через RAG, и совсем другое - дать модели доступ к ADR и документации проекта при ревью Merge Request'ов. Это у нас уже есть в планах на следующие мажорные версии)</p>]]></description>
      <pubDate>Wed, 04 Mar 2026 22:46:41 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>04.03.2026 20:22:32 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1006258/#comment_29619848</guid>
      <link>https://habr.com/ru/articles/1006258/#comment_29619848</link>
      <description><![CDATA[<p>Добрый день! Да, 100% планируется! :-) <br>Для пайплайнов мы готовим отдельную утилиту - это будут полноценные боты для GitLab CI и GitHub Actions, которые смогут делать ревью и писать inline-комментарии прямо в Merge Request</p>]]></description>
      <pubDate>Wed, 04 Mar 2026 20:22:32 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>04.03.2026 19:57:25 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1006258/#comment_29619786</guid>
      <link>https://habr.com/ru/articles/1006258/#comment_29619786</link>
      <description><![CDATA[<p>UPDATE (Alpha 0.3.5)<strong>: </strong>Упростили синтаксис!</p><p>В версии <strong>Alpha 0.3.5</strong> мы отказались от обязательного использования флага <code>--command</code>. Теперь работа с CLI стала интуитивнее и быстрее.</p><p>❌ <strong>Было:</strong> <code>codefox --command scan</code> </p><p>✅ <strong>Стало:</strong> <code>codefox scan</code> (и <code>codefox init</code> соответственно).</p><p>Чтобы обновиться до актуальной версии, выполните: <br><code>pip install --upgrade codefox</code></p><p>или</p><p><code>uv tool upgrade codefox</code></p>]]></description>
      <pubDate>Wed, 04 Mar 2026 19:57:25 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

  
    <item>
      <title>04.03.2026 17:23:46 </title>
      <guid isPermaLink="true">https://habr.com/ru/articles/1006258/#comment_29619238</guid>
      <link>https://habr.com/ru/articles/1006258/#comment_29619238</link>
      <description><![CDATA[<p>Добрый день! Спасибо за честный фидбек, вы абсолютно правы - сейчас этот шаг выглядит неинтуитивно, простите за путаницу! 🙏</p><p>Позвольте пояснить, как это исправить прямо сейчас:</p><ol><li><p><strong>Запрос токена:</strong> Команда <code>init</code> просит токен, так как мы заложили поддержку  облака Ollama Cloud. Но для работы <strong>строго локально</strong> этот шаг нужно просто пропустить (ввести <code>null</code> ). Вы правы, для локального инструмента это сбивает с толку. В следующем минорном патче я сделаю локальный режим дефолтным, чтобы токен запрашивался только при явном выборе облака.</p></li><li><p><strong>Ошибка 404 (model not found):</strong> Эта ошибка от самой Ollama означает, что на вашем жестком диске еще нет весов этой модели. CodeFox пока не умеет скачивать их автоматически. Чтобы всё заработало, нужно предварительно выполнить в терминале: <code>ollama pull gemma3:12b</code> (или имя той модели, которую вы выбрали).</p></li></ol><p>Посмотреть скачанные у вас модели можно командой <code>codefox --command list</code> (или на локальной машине через команду <code>ollama list</code>).</p><p>В следующий версии обязательно добавим авто-скачивание моделей и уберу обязательный вопрос про токен в новой Alpha-версии. Будем рады, если дадите инструменту второй шанс!</p>]]></description>
      <pubDate>Wed, 04 Mar 2026 17:23:46 GMT</pubDate>
      <dc:creator><![CDATA[]]></dc:creator>
    </item>
  

      

      

    
  </channel>
</rss>
