Генерация тест-кейсов ИИ обычно даёт дубликаты и шум. Без таксономии рисков и нормальной трассируемости к требованиям JSON-списки быстро гниют. Какая у вас динамика escaped defects до/после, можете подробнее?
Я лучше просто буду кодить и поправлю ошибки у себя, чем сидеть разбираться в коде ИИ, искать, почему он делает неправильно, потом перестраивать структуру кода и так далее. Это уже какая-то совсем другая работа
ADR и матрицы RACI — это хорошо, но требует дисциплины. В маленьких командах часто нет ресурсов вести артефакты, всё решается устно. Как заставить людей это реально делать?
Генерация тест-кейсов ИИ обычно даёт дубликаты и шум. Без таксономии рисков и нормальной трассируемости к требованиям JSON-списки быстро гниют. Какая у вас динамика escaped defects до/после, можете подробнее?
Я лучше просто буду кодить и поправлю ошибки у себя, чем сидеть разбираться в коде ИИ, искать, почему он делает неправильно, потом перестраивать структуру кода и так далее. Это уже какая-то совсем другая работа
ADR и матрицы RACI — это хорошо, но требует дисциплины. В маленьких командах часто нет ресурсов вести артефакты, всё решается устно. Как заставить людей это реально делать?
Сложность ревью — LLM может нагенерить тестов быстрее, но не увеличилась ли нагрузка на ревью из-за необходимости перепроверять бред и неочевидности?