Comments 19
Подобных решений уже достаточно много: qodo, coderabbit, korbit и еще с десяток других можно найти. Кроме этого в самом GitLab есть Duo и опция код-ревью через AI в различных DevEx платформах.
ММ доверять работу ИИ. Резко качество кода и решения начинает деградировать +)
Потому что не нужно доверять. Это инструмент, им надо правильно пользоваться. И как правильно пользоваться надо учиться, как и для любого другого инструмента. Человек с большим опытом будет пользоваться эффективнее и качественнее, чем человек просто "шлёпнувший ИИшку в CI/CD"
LLM может сообщить о недостатках, которые не заметили люди, это не замена людям, а ещё один фактор, мини-этап в ревью; если качественно обученная LLM, то она редко когда сругнётся там, где не о чем ругаться.
Специально полез посмотреть, что там было 26-27 июля. Конечно же, суббота-воскресенье. А Олег пишет Марии глубокой ночью. Отличная компания, чо, аж хочется в ней поработать (нет).
Получается хакатон проходил на выходных 2 дня с утра до ночи, а 28.07 надо было идти на работу. Другими словами сотрудники на выходных бесплатно отработали. Хорошее отношении к сотрудникам...
У нас строгий отбор и нет вообще текучки, к нам сложно попасть.
Где посмотреть результат вашего труда?
48 часов это срок, практически 1 спринт, если спринты по 1 неделе.
ИИ хорош, если правильно реализовать ИИ агента, прописать workflow, критерии, а также реализовать проверку и тестирование этого агента.
А почему в нерабочее время? Челам настолько пофиг на отдых, что готовы в выходные работать?
То есть вы еще ничего не внедрили, не проверили как это будет работать в реальных процессах, а уже побежали на Хабр рассказывать?
А где технические детали решения? Где там какие RAGи под капотом, что подавали в контекст нейронке, какую нейронку выбрали и через какого провайдера подключали (а может на локальной все собрали?), какие промпты использовали? Почему не использовали одно из готовых решений?
Как мы автоматизировали код-ревью за 48 часов на хакатоне: от боли техлидов до рабочего MVP