Обновить
1
0

Пользователь

Отправить сообщение

Генерация тест-кейсов ИИ обычно даёт дубликаты и шум. Без таксономии рисков и нормальной трассируемости к требованиям JSON-списки быстро гниют. Какая у вас динамика escaped defects до/после, можете подробнее?

Я лучше просто буду кодить и поправлю ошибки у себя, чем сидеть разбираться в коде ИИ, искать, почему он делает неправильно, потом перестраивать структуру кода и так далее. Это уже какая-то совсем другая работа

ADR и матрицы RACI — это хорошо, но требует дисциплины. В маленьких командах часто нет ресурсов вести артефакты, всё решается устно. Как заставить людей это реально делать?

Сложность ревью — LLM может нагенерить тестов быстрее, но не увеличилась ли нагрузка на ревью из-за необходимости перепроверять бред и неочевидности?

Информация

В рейтинге
Не участвует
Зарегистрирован
Активность