Олег Малышев@Tanki_sleva
QA, Отец, немного блоггер, AI-энтузиаст
Информация
- В рейтинге
- 650-й
- Откуда
- Москва, Москва и Московская обл., Россия
- Работает в
- Дата рождения
- Зарегистрирован
- Активность
Специализация
Менеджер по обеспечению качества
Ведущий
Git
Python
Java
Базы данных
REST
Как я и писал выше, мы используем Cursor скорее как песочницу для экспериментов: проверяем, что промпты и гипотезы реально работают, и уже потом масштабируем.
В продовом процессе мы, в том числе, отправляем в ревью большое количество тест-кейсов - там всё крутится под капотом через наш MCP.
По поводу автоматического обновления шагов и заголовка AI - да, так делать можно, но мы пока сознательно этого не делаем. Сейчас ревью - это ещё и элемент “обучения”: QA видит, где не учёл важные моменты, сам правит кейс и со временем начинает писать тест-кейсы качественнее.
А вот идею с AI Value беру на заметку 🙂
Если использовать Cursor AI как корпоративный процесс ревью на уровне всей компании - да, это будет дороговато.
Но мы используем Cursor скорее как песочницу для экспериментов: тестируем качество AI-ревьюера, пробуем генерацию тест-кейсов по требованиям, макетам в Figma и т.д. Плюс в Cursor удобно работать с MCP: можно ходить в Яндекс Трекер, Figma и другие источники контекста, подтягивать нужные данные и быстро проверять гипотезы.
В продовом процессе на уровне компании у нас ревью работает иначе: под капотом - наш MCP. QA переводит тест-кейс в статус «Ревью», подключается модель z.ai (она заметно дешевле ChatGPT 5.2, а по качеству нас устраивает), делает ревью и публикует результат комментарием в TestOps.
По безопасности: токены и любые чувствительные данные мы не хардкодим - храним в Vault, наружу уходит только то, что реально нужно для ревью (без секретов).