ИИ-гонка: инновации любой ценой

Искусственный интеллект в корпоративном сегменте РФ перестал быть экспериментальной технологией. Согласно исследованию Сбера, в 2026 году 39% компаний уже внедрили ИИ в свои процессы – от документооборота до стратегии. Сегодня LLM-чат-боты встречают клиентов на сайтах, AI-ассистенты помогают сотрудникам готовить документы, а RAG-системы анализируют корпоративные базы знаний. Компании внедряют ИИ быстрее, чем успевают осознать все последствия, стремясь повысить эффективность и сократить издержки.

Новая "слепая зона" безопасности

Однако эта гонка за инновациями создает слепую зону для безопасности. По результатам опроса ИБ-компаний, проведенного “Коммерсантом”, в 2026 году до 10% атак на банковские ИТ-инфраструктуры будут связаны с уязвимостями ИИ. На данный момент зарегистрированных инцидентов с атаками на ИИ еще нет, но эта оценка подчеркивает важность защиты ИИ-систем. 

Традиционные инструменты – WAF, DLP, NGFW – снижают часть риска, но имеют проблемы с детектированием атак на GenAI-модели. Для них диалог атакующего с GenAI-сервисом выглядит, как легитимное использование системы. При этом “взлом” происходит прямо в диалоговом окне, зачастую на естественном языке, без единой строчки кода. Появился набор новых, специфичных угроз, с которыми ИБ-специалисты раньше не сталкивались:

  • Prompt injection – манипуляция входными данными, чтобы заставить модель игнорировать инструкции и выполнять команды злоумышленника.

  • Data poisoning – внедрение вредоносных данных в обучающую выборку, чтобы модель принимала неверные решения.

  • Model extraction – кража интеллектуальной собственности через API путем восстановления параметров модели или выкачивания данных. Похожая угроза – Data leakage, извлечение конфиденциальных данных, на которых модель обучалась, или содержимого корпоративной базы знаний.

  • Новая поверхность атак Supply Chain – современные ИИ-агенты помогают разработчикам генерировать программный код, находить необходимые библиотеки автоматически и запускать shell-команд, но это приводит к усложнению контроля за элементами сложной системы.

Ситуация осложняется тем, что ландшафт этих угроз динамичен. Методы атак на ИИ эволюционируют едва ли не быстрее, чем сами модели. То, что считалось безопасной архитектурой вчера, сегодня может быть скомпрометировано новым видом джейлбрейка. Защита здесь требует не разового внедрения "волшебной таблетки", а постоянного мониторинга и тестирования.

Регулятор в деле: о чем новый приказ ФСТЭК

Закономерно, что регуляторы начинают обращать внимание на эту новую реальность. Хотя подходы к регулированию ИИ только формируются, первые значимые шаги уже делаются. Яркий пример – вступивший в силу 1 марта 2026 года Приказ ФСТЭК России №117. Этот документ, обновляющий требования к защите информации в госорганах, впервые прямо указывает на необходимость защиты компонентов ИИ: обучающих датасетов, моделей, параметров и сервисов принятия решений. Это сигнал о том, что ИИ-системы становятся частью критической инфраструктуры и должны проходить проверку безопасности. И это только начало, регуляторное давление будет усиливаться.

Рынок требует экспертизы в AI-пентесте

На этом фоне растет интерес рынка к решениям и услугам в области тестирования ИИ на устойчивость к атакам. OpenAI на днях объявил о приобретении компании PromptFoo, которая развивает именно такой продукт. Сама команда PromptFoo заявляет, что среди их клиентов четверть участников Fortune 500. 

Зарубежные исследования подтверждают, что рынок созрел для новой услуги. Согласно данным Cobalt, 50% руководителей по безопасности считают защиту ИИ своим стратегическим приоритетом, а 37% готовы сменить подрядчика ради получения именно AI-экспертизы. При этом, по оценке QYResearch, глобальный рынок AI-пентеста уже в 2025 году оценивался в $74.7 млрд и продолжит рост. Парадокс в том, что, несмотря на высокий спрос, только треть компаний регулярно проверяет свои ИИ-системы. 

Окно возможностей для интеграторов

Это создает идеальный момент для интегратора, который может предложить рынку дефицитную компетенцию и закрыть растущую потребность в специализированном тестировании. Спрос на ИИ-решения огромен, но заказчики (от госорганов до крупных финансовых структур) не понимают, как проверить их безопасность и соответствие новым требованиям. У самих заказчиков нет ни инструментов, ни методологий, ни специалистов по AI security.

Именно здесь интегратор может предложить новую, маржинальную и крайне востребованную услугу – AI Security Assessment (тестирование безопасности ИИ-приложений). По сути, это специализированный пентест или Red Teaming для систем с искусственным интеллектом. Услуга может включать несколько этапов:

  1. Инвентаризация: поиск всех используемых ИИ-решений в инфраструктуре клиента.

  2. Моделирование угроз: анализ того, как злоумышленник может атаковать именно эти модели и датасеты.

  3. Практическое тестирование: проведение контролируемых атак (prompt injection, jailbreak, extraction) для проверки устойчивости.

  4. Оценка рисков и отчетность: предоставление заказчику карты рисков и четких рекомендаций по защите.

Как быстро войти на рынок AI-пентестов

Чтобы предложить рынку качественную услугу, интегратору нужна правильная "артиллерия". Для этого мы создали HiveTrace Red – специализированную платформу для тестирования безопасности ИИ-систем. HiveTrace Red позволяет вашей команде:

  • Проводить автоматизированные и полуавтоматические атаки на различные типы моделей (LLM, RAG-системы, ML-модели).

  • Использовать актуальную базу техник, включая самые свежие методы джейлбрейков и промпт-инъекций.

  • Генерировать отчеты, понятные не только техническим специалистам, но и регуляторам, демонстрируя выполнение новых требований.

На ограниченный период мы предоставляем партнерам инструмент бесплатно. Но инструмент это еще не все. Мы запускаем программу обучения для интеграторов. Покажем и обучим:

  • Что такое пентест ИИ-систем

  • Как и кому продавать проекты

  • Как делать проекты: какие приемы и техники “взлома” использовать, как интерпретировать отчеты и так далее 

Первые проекты для реальных заказчиков проведем совместно. 

С HiveTrace Red интегратор получает не просто инструмент, но и новое направление бизнеса “под ключ”. Это позволяет быстро войти на рынок AI security, предлагать клиентам услуги премиум-класса и формировать новую экспертизу, которая в ближайшие годы станет стандартом рынка информационной безопасности. Рынок требует проверки ИИ-систем, и сейчас лучшее время, чтобы занять эту нишу.

Приходите на вебинар, посвященный продукту HiveTrace Red и партнерской программе. Расскажем там больше подробностей и ответим на вопросы и по коммерческой, и по технической части.