Comments 7
Отличный структурированный подход, выглядит здорово. Надеюсь будет продолжение с лайфхаками, сравнениями иишек для тестирования и прочим контентом по вайб тестированию )
Промт - это переводчик, а то, о чем вы рассказываете - это промпт 😁
у такого подхода есть одна не очевидная сторона. если сетка общедоступная - то лучше не сливать чувствительные данные, т.к. давно известно, что данные сливаются. лучше использовать какие то изолированные нейронки, если есть такая возможность. если нет - то не сливать чувствительные данные, т.к. заказчик явно не будет рад, если узнает, что данные его проекта слиты в ящик. так что будьте аккуратны)
Это хорошее замечание)
Действительно, если компания осознанно хочет встроить ИИ в процессы (в том числе работу с требованиями), это обычно выглядит не как “открыли бесплатный чат и понеслась”, а покупается корпоративная версия (типа ChatGPT Enterprise / Claude Enterprise) или поднимается приватная/локальная модель в своём контуре (облако, VPC, on-prem).
В этом случае уже есть гарантии безопасности данных о проекте: договор с вендором, политика обработки данных, настройки безопасности и логирования и т.п.
И требования для ИИ уже будут внутренними данными, как для любого другого сервиса в инфраструктуре.
Конкретно у нас так и сделано: ИИ развёрнут отдельно, все данные проекта собираются в общий гит, доступный только нашим сотрудникам, наружу это никуда не летит.
Поэтому я не изобретаю хитрые обходы и как-то не задумалось, что нужно это отдельно в статье освящать, спасибо за наводку)
для вас это может быть очевидным. сам не раз сталкивался с таким, что многие сотрудники пишут в дипсик или чатгпт чувствительную информацию. когда я подсвечивал такую проблему, на меня смотрели как на блаженного) так что подсвечивать данный момент стоит. а тк статья мне самому понравилась. подписался
Как я научила ИИ быть моим напарником по тестированию