Платформа AI-ревью кода CodeRabbit опубликовала отчет State of AI vs Human Code Generation, который выявил парадокс современной разработки: AI-ассистенты стали массовым инструментом, однако сгенерированный ими код содержит в среднем в 1,7 раза больше проблем, чем человеческий. Исследование основано на анализе 470 реальных pull request’ов из открытых проектов на GitHub — 320 с участием AI и 150 написанных только людьми.

Проблемы AI-кода затрагивают все ключевые категории качества. Логические ошибки и проблемы с корректностью встречаются на 75% чаще — это ошибки в бизнес-логике, неверные конфигурации и небезопасные ветвления. Уязвимости безопасности появляются в 1,5–2 раза чаще, особенно некорректная работа с паролями и небезопасный доступ к объектам. Читаемость кода страдает втрое сильнее из-за проблем с именованием и форматированием. Самый большой разрыв — в производительности: неэффективные операции ввода-вывода встречаются в AI-коде почти в 8 раз чаще.

Причина часто в том, что AI не дают контекст конкретного проекта. Ему недоступны бизнес-правила, архитектурные ограничения, принятые в команде паттерны. Без этой информации модель генерирует код, который выглядит корректным, но не учитывает специфику репозитория.

CodeRabbit предлагает снижать риски на нескольких уровнях: добавлять в промпты контекст проекта, внедрять автоформатирование и линтеры на уровне CI, требовать тесты для нетривиальной логики, усиливать сканирование безопасности и использовать специальные чеклисты для ревью AI-кода с фокусом на обработке ошибок и валидации.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.