Искусственный интеллект всё активнее встраивается в повседневные бизнес-процессы: компании используют его для автоматизации операций, аналитики, работы с клиентами и оптимизации внутренних процессов. Но вместе с новыми возможностями AI приносит и новые вызовы для кибербезопасности. Чем глубже интеллектуальные системы интегрируются в ИТ-ландшафт компании, тем больше появляется потенциальных точек отказа, уязвимостей и сценариев для атак.

Особенно хорошо это заметно в электронной торговле. Здесь мы уже давно говорим не просто про сайты с каталогом товаров и кнопкой «Купить», но про многослойные цифровые платформы, завязанные на API, внешние сервисы, системы аналитики, рекомендации, CRM и десятки внутренних интеграций. И чем сложнее становится такая экосистема, тем привлекательнее она для атакующих.
Если раньше основной целью были серверы и инфраструктура, то теперь атаки всё чаще смещаются туда, где находится реальная бизнес-ценность: в пользовательские данные, интеграционные точки, API и прикладную логику самих сервисов.
За последние полтора года российский бизнес столкнулся с парадоксом: ИИ перестал быть «серебряной пулей» для автоматизации и превратился в один из самых неконтролируемых каналов утечки данных. По данным аналитиков ГК «Солар», объем информации, переданной сотрудниками в публичные нейросети (ChatGPT, Google Gemini), вырос в 30 раз только за 2025 год.
Под удар попали все секторы, но для электронной торговли ситуация особенно критична. В публичные ИИ-сервисы утекают базы клиентов, фрагменты исходного кода, бухгалтерские отчеты и юридические документы. При этом службы информационной безопасности часто даже не видят этот канал — сотрудники используют нейросети для «оптимизации задач»: суммаризации данных, генерации текстов и кода.
Вторая проблема — эволюция самих угроз, антивирус и пароль на вход — это вчерашний день. ИИ теперь играет на обе стороны: злоумышленники используют его для генерации правдоподобного фишинга, автоматизации атак и поиска уязвимостей в API. В ответ бизнес вынужден переходить к модели Zero Trust — «никому не доверяй, всегда проверяй».
Для e-commerce это означает пересборку всей логики безопасности: внутренняя сеть больше не считается безопасной по умолчанию, а любой запрос — к базе клиентов, CRM или платежному шлюзу — должен проходить проверку. В противном случае AI становится не драйвером роста, а ускорителем инцидентов.
Очевидно, что ключевой вопрос не в том, использовать ли ИИ, а в том, как именно это делать. Ниже — взгляд наших экспертов на эту проблему с разных сторон: от архитектуры и процессов до практики внедрения и реальных рисков.

Роман Фомин
Директор направления ритейл, Ростелеком
Сегодня уже можно достаточно уверенно говорить о направлениях, где внедрение ИИ дает ощутимый экономический эффект — и о тех, где ожидания пока опережают реальность.
Самый заметный эффект сейчас — в разработке ИТ-продуктов, включая решения в области кибербезопасности. Несмотря на скепсис вокруг «вайбкодинга», модели быстро развиваются, а их применение растет почти экспоненциально. Компании начинают быстрее выводить продукты на рынок, команды работают эффективнее, а сами процессы становятся гибче. И, судя по всему, следующий скачок произойдет именно здесь — за счет ИИ-агентов, которые смогут не просто помогать, а выполнять задачи практически автономно.
Параллельно активно трансформируется клиентский сервис. Это одна из первых зон, где GenAI начал приносить реальную пользу, и сегодня модели уже не только закрывают первую линию поддержки, но и помогают контролировать качество и ускорять решение проблем. В результате пользователь получает более быстрый и зачастую более персонализированный опыт.
Схожая динамика наблюдается в образовании и медиасфере. В EdTech ИИ постепенно становится ассистентом как для преподавателей, так и для студентов, а в маркетинге и медиа генеративные технологии уже фактически стали стандартом. Здесь же активно развиваются инструменты для борьбы с дипфейками и маркировки AI-контента — как ответ на новые риски.
Юриспруденция — еще один пример того, как GenAI быстро находит практическое применение. Генерация и проверка документов, подготовка контрактов, анализ текстов — все это уже частично автоматизируется. В целом же ИИ постепенно становится встроенной функцией большинства ИТ-продуктов — от CRM до офисных инструментов — и начинает восприниматься как базовое конкурентное преимущество.
При этом есть отрасли, где эффект пока ограничен. В промышленности компании осторожны и чаще говорят об экспериментах, чем о полномасштабном внедрении. В ритейле и логистике потенциал очевиден, но реальные прорывы связывают скорее с развитием физического ИИ — робототехники и предиктивного обслуживания.
Медицина и фармацевтика остаются зоной больших ожиданий, но и серьезных ограничений. Вопросы к качеству моделей, регулированию и готовности специалистов пока сдерживают масштабное внедрение. Хотя именно здесь многие ждут одного из самых значимых прорывов.
Отдельно стоит отметить аналитику — область, где GenAI пока не оправдал ожиданий. Модели по-прежнему сильны в работе с текстом, но слабо применимы для предиктивных задач и поиска закономерностей. Тем не менее именно здесь многие видят следующий этап развития.
При этом вместе с возможностями растут и риски. Уже сейчас появляются кейсы, когда отчеты, публикации или деловая переписка явно сгенерированы ИИ — и это приводит как к репутационным, так и к финансовым потерям. Проблема галлюцинаций никуда не делась и, скорее всего, останется с нами, поскольку напрямую связана с природой таких моделей.
В кибербезопасности на первый план выходит риск утечек. С одной стороны, он во многом похож на риски использования любого стороннего ПО. С другой — масштаб и скорость угроз растут: ИИ ускоряет и разработку, и атаки. Упрощается создание вредоносного ПО, усложняются сценарии фишинга и социальной инженерии. В этом смысле GenAI становится инструментом обеих сторон.
И, возможно, главный риск — это не сама технология, а то, как с ней работают люди. Неконтролируемое использование и доступ к данным могут привести к утечкам даже при формально выстроенной защите. Поэтому критически важны базовые вещи: разграничение прав доступа и понятные правила работы с данными.

Дмитрий Радаев
Заместитель исполнительного директора, AGIMA
Если обобщить дискуссию вокруг GenAI, то ключевая идея звучит просто: это инструмент, и результат зависит от того, как им пользуются.
Крупные компании это уже поняли и стараются не ограничивать ИИ, а централизовать его использование. Вместо запретов они создают внутренние контуры — единые точки доступа к моделям и инструментам. Это позволяет не бороться с технологией, а управлять ею, снижая хаотичное внедрение и связанные с этим риски.
При этом природа утечек практически не изменилась. Если раньше сотрудник мог случайно или намеренно раскрыть данные, то теперь у него просто появился более удобный инструмент. Поэтому решающую роль по-прежнему играют не столько технологии, сколько культура: обучение, регламенты, ответственность. Во многих случаях именно повышение общей грамотности дает больший эффект, чем дополнительные ограничения.
С другой стороны, ИИ заметно усилил атакующих. Он упростил конкурентную разведку, сделал фишинг более убедительным и ускорил подготовку сложных сценариев социальной инженерии. То, что раньше требовало значительных ресурсов, теперь делается быстрее и дешевле.
Та же логика работает и в технической плоскости. GenAI ускоряет поиск уязвимостей и помогает быстрее адаптировать атаки под защиту. В результате особенно уязвимыми становятся компании, которые либо недооценивают угрозы, либо используют устаревшие решения — потому что атаковать их становится проще и выгоднее.
Отдельный тренд — стремление развернуть модели внутри собственного контура. Это выглядит логично с точки зрения контроля данных, но на практике не всегда сопровождается достаточной экспертизой. В результате компании одновременно боятся внешних моделей и недооценивают риски собственной реализации.
И здесь возникает парадокс: GenAI ускоряет разработку, но одновременно увеличивает вероятность ошибок. Если команда не умеет работать с ним безопасно, она начинает быстрее создавать уязвимые продукты. Поэтому роль опытных специалистов только растет — именно они задают рамки, в которых скорость не превращается в риск.

Андрей Хышов
Директор по технологиям, Купер
Сейчас ИИ лучше всего показывает себя в задачах, где много повторяющихся действий и большой объем данных. В e-commerce это персонализация выдачи и рекомендаций, автоматизация поддержки, fraud detection, прогнозирование спроса, управление остатками, промо и логистика. Во всех этих кейсах его основная ценность довольно прагматичная — снижение издержек и ускорение процессов.
Следующий этап, который мы уже начинаем видеть, — это гибридные модели. Когда ИИ не принимает решение полностью сам, а готовит его, а человек проверяет и подтверждает. По мере того как доверие к таким системам будет расти, глубина автоматизации тоже будет увеличиваться.
Если говорить о защите от ИИ-атак, то в основе здесь всё те же проверенные практики информационной безопасности, адаптированные под работу с LLM. Это фильтрация входных и выходных данных, rate limiting, валидация запросов перед обращением к модели, мониторинг аномалий, а также регулярное обучение сотрудников и отработка сценариев реагирования.
Отдельная сложность в том, что действия ИИ всё чаще сложно отличить от обычного пользовательского поведения. Поэтому недостаточно просто поставить защиту на входе — важно в целом понимать, что происходит внутри системы. Без постоянного мониторинга и нормальной аналитики это быстро превращается в работу вслепую.
Если в инфраструктуре используются ИИ-агенты с доступом к данным или операциям, здесь работает тот же принцип, что и в любой другой архитектуре: минимально необходимый уровень доступа. Агент не должен иметь больше прав, чем нужно для выполнения конкретной задачи.
Из дополнительных мер по-прежнему хорошо работают регулярные пентесты и моделирование сценариев. Компании, которые заранее тестируют возможные векторы атак, отрабатывают восстановление и проводят внутренние учения, обычно гораздо лучше проходят через реальные инциденты.
При этом сам ИИ уже активно используется как инструмент защиты. Особенно там, где сложно заранее формализовать все правила. Например, в поведенческом анализе пользователей: модель может находить аномалии и замечать новые паттерны фрода быстрее, чем это получится сделать вручную или через жестко заданные правила.
Еще один распространенный кейс — использование ИИ в SIEM-системах для корреляции событий. Он помогает связывать события между собой, выделять действительно важные инциденты и снижать объем ручной работы для аналитиков. За счёт этого команда быстрее понимает, что происходит, и тратит меньше времени на рутину.
В ближайшие годы ИБ-инструменты будут становиться более адаптивными, а автоматизации в анализе и реагировании станет больше. Одновременно с этим изменится и роль самих специалистов: всё важнее будет не просто знание базовых практик ИБ, а умение эффективно работать с ИИ-инструментами и встраивать их в процессы.
Полностью автоматизировать лучше всего получается задачи, где есть понятный процесс и предсказуемый сценарий. Это мониторинг, алертинг, первичная сортировка инцидентов, деплой по стандартным пайплайнам, генерация отчётности, базовая поддержка. Здесь автоматизация дает быстрый и понятный эффект.
Но как только появляются нестандартные сценарии, высокая цена ошибки или необходимость принимать архитектурные решения, без человека пока никуда. Это касается сложных инцидентов, проектирования систем и любых ситуаций, где важно учитывать не только формальную логику, но и контекст.
Поэтому на практике лучше всего работает не полная автоматизация, а разумное разделение зон ответственности: всё, что можно безопасно автоматизировать, автоматизируется, а человек остается там, где нужны экспертиза, контроль и принятие сложных решений.
Статья написана по итогам митапа из цикла «Ecom и Вино», который этой весной прошел в офисе AGIMA и был посвящен теме информационной безопасности в электронной коммерции. Следите за нашими анонсами и приходите на следующие встречи.
