All streams
Search
Write a publication
Pull to refresh

Comments 10

Раньше в этой роли был “злой коллега — сеньор-помидор”, который цеплялся к каждому комментарию и форматированию.

Проблема форматирования уже решена 10 лет назад. Бесплатные и быстрые инструменты есть для всех языков. Лучше пользоваться ими и экономить токены.

clang-format, к примеру, не умеет указывать на нарушение кодстайла в правилах именования методов/полей классов. Так что увы.

Я бы это к форматированию не совсем относил, это больше линтинг.

Кстати в вашем репозитории форматинг не подключен (ruff format, токлько линтинг.)

И чтобы не придумывать велосипедов гляньте на:
Гляньте на https://github.com/astral-sh/ruff-action.

Возможно, вы не до конца понимаете что такое линтер? И что делает clang-format, где название говорит само за себя. Или вы перепутали его с clang-tidy.

не умеет указывать на нарушение кодстайла в правилах именования


Мой коммент оносится вот к этому, а не к самому clang-format

Понял. Ну наверное да. Свой пет проект я средствами clion форматирую.

@sound_right очень интересно, спасибо. И поясните пожалуйста этот момент :

например, от личного OpenAI-аккаунта) и запустите AI Review на корпоративном репозитории, то не стоит удивляться, если через полгода та же модель начнёт “угадывать” названия ваших внутренних сервисов или упоминать приватные конструкции. Это не “слив”, просто вы сами обучили модель на своих данных через публичный ключ.

Если коротко: при использовании личного токена OpenAI (или другого публичного провайдера) ваши запросы и контекст (в данном случае - код) могут использоваться для дообучения модели, если не включён специальный корпоративный режим.

OpenAI прямо пишет в политике, что данные, отправленные через обычные персональные ключи, могут использоваться для улучшения моделей. Поэтому, если вы используете такой ключ в CI/CD или на корпоративном репозитории, - фактически весь код улетает в OpenAI.

Для бизнеса у них есть корп тарифы, где обучение отключено и контент не сохраняется. Именно об этом я и говорю:

  • личный токен = данные могут попасть в дообучение;

  • корпоративный токен = данные не сохраняются и не используются.

Для многих компаний это вопрос инфобеза и регуляторных требований (GDPR, ISO, SOC2 и т.д.), поэтому важно разделять ключи и не использовать личные для рабочих репозиториев, иначе могут быть последствия

Возможно ли использовать локальную llm? Giga, depseek и прочие

Да, в теории - можно. Там нет завязки на конкретного провайдера, архитектура сделана так, что можно добавить адаптер под любую LLM

Пока из коробки реализованы OpenAI, Claude и Gemini - просто как самые распространенные. При желании - можно форкнуть, легко добавить поддержку локальных LLM

Sign up to leave a comment.

Articles