Три промпта — три результата: как качество запроса определяет качество автотестов

Все говорят, что AI пишет код за секунды. Это правда. Но почему-то редко уточняют: какой именно код он пишет. Спойлер — это сильно зависит от того, как вы спросили. И ещё сильнее — от того, что вы вообще знаете о предмете.
В Ростелекоме мы уделяем особое внимание развитию экспертизы сотрудников. Это не просто корпоративный слоган — это осознанная стратегия. Мы понимаем, что технологии меняются быстро, но фундаментальные знания остаются ценными десятилетиями. Поэтому в компании работает система внутреннего обучения: курсы по автоматизации тестирования, менторинг от senior-специалистов, разбор реальных кейсов из проектов.
И когда появились AI-ассистенты, возник логичный вопрос: может, теперь курсы не нужны? Зачем учить людей писать тесты, если нейросеть сделает это за них? Некоторые коллеги из индустрии уже начали сокращать обучающие программы, делая ставку на "AI справится".
Мы в Ростелекоме решили не гадать, а проверить эту гипотезу на практике. Провели эксперимент: попросили AI-ассистента написать автотесты для классического PetStore API тремя разными способами. Первый запрос — как написал бы новичок, который только что узнал про AI. Второй — как специалист с базовым пониманием автоматизации. Третий — как инженер после наших внутренних курсов, с глубоким пониманием архитектуры тестовых фреймворков.
Результаты оказались настолько показательными, что мы решили поделиться ими с сообществом.

















