Во время первого выступления на саммите Gartner Security & Risk Management Summit 2025 аналитики рассказали о том, как директора ИТ и службы безопасности могут использовать интерес к ИИ и другим технологиям для улучшения своей системы безопасности.
Саммит по вопросам безопасности и управления рисками Gartner — Вашингтон, округ Колумбия. Ажиотаж в киберсфере может стать как препятствием, так и стимулом для повышения уровня безопасности — таков главный тезис пленарного доклада.
Тема доклада — «Используем ажиотаж: как превратить вызовы в возможности для кибербезопасности». Его представили ведущие аналитики, вице-президенты Ли МакМаллен и Катель Тхийлеманн. В центре внимания — волны хайпа, которые захватывают кибериндустрию: от оптимизма по поводу ИИ до чрезмерной фиксации на отдельных угрозах и рисках.
МакМаллен отметил, что за последние полгода в государственном секторе произошли радикальные изменения — указы, сокращения бюджета, новые тарифы и перестройка политики. Даже те, кто не работает на государство, зависят от него как от ключевого клиента. В условиях нестабильности компании ищут новые решения, и именно здесь ажиотаж начинает влиять на выбор.
Саммит ярко демонстрирует силу хайпа: ИИ остаётся центральной темой, а agentic AI фигурирует в десятках сессий — порой идущих параллельно.
Как обратить хайп на пользу безопасности
Тхийлеманн привела данные:
74% CEO считают генеративный ИИ технологией, которая окажет наибольшее влияние на их отрасли в ближайшие 3 года.
84% планируют увеличить инвестиции в ИИ уже в этом году.
85% уверены, что кибербезопасность критична для роста бизнеса.
87% тех. лидов повышают бюджеты на безопасность.
По словам МакМаллена, внимание топ-менеджмента к кибербезопасности выросло, но ажиотаж способен привести к поспешным вложениям в непроверенные технологии. «Новые технологии всё равно придут — готовы мы или нет», — подчеркнул он.
Тхийлеманн описала типичную ситуацию: конкурент компании пострадал от ransomware (программа-вымогатель) и до сих пор не восстановил работу. CEO требует ответа, может ли подобное произойти у них. В этот момент есть выбор: играть на страхе, предлагая срочные закупки новых средств защиты, рискуя подорвать доверие, или же показать, что команда безопасности уже сделала целевые инвестиции, обеспечив защиту и готовность к будущим вызовам.
Как избежать ловушек хайпа
Выход — «прозрачность, согласованная с миссией» (mission-aligned transparency), реализуемая через соглашения об уровне защиты (PLA) — формализованные договорённости между ИБ-отделом и руководством о том, сколько средств компания готова потратить на достижение конкретного уровня защиты.
Ключевым инструментом здесь выступают метрики, ориентированные на результат (ODM), показывающие текущий уровень защищённости и степень риска. Это позволяет руководству решать: инвестировать больше в защиту или сознательно принять риск ради экономии.
Пример: лишь 20% критически важных систем имеют процедуры восстановления после программ-вымогателей, а половина не проходила учений. Руководству можно предложить варианты: поднять показатель до 70% за $1 млн или до 80% за $1,5 млн — и вести уже разговор на основе фактов, а не страхов.
ИИ как двигатель хайпа
Отдельный блок был посвящён генеративному и агентному ИИ. Игнорировать его нельзя — все отрасли спешат внедрять ИИ для задач от обнаружения мошенничества в банках до автоматизации обслуживания клиентов и разработки продуктов.
МакМаллен подчеркнул необходимость:
Развивать ИИ-грамотность в командах безопасности.
Экспериментировать с ИИ для задач кибербезопасности.
Защищать внедрённые AI-приложения.
«Нам самим нужно работать с ИИ, чтобы понять, как именно функционируют LLM-модели, где и как могут быть подменены запросы и ответы, и как защищать ИИ-инвестиции организации», — отметил он.
Поставщики ИБ уже используют LLM для автоматизированного поиска угроз и устранения уязвимостей. При этом важно отслеживать, для чего именно сотрудники применяют ИИ, какие из инструментов являются критичными и какие данные они обрабатывают. Вместо тотального запрета целесообразно допускать «интеллектуальные риски», сохраняя контроль.
Если компания разрабатывает собственные AI-решения, ИБ-отделам придётся адаптировать планы реагирования на инциденты, включая риски искажения данных и утечек интеллектуальной собственности.
В заключение МакМаллен обратился к директорам: «В отличие от любой другой должности, вам предстоит защищать инвестиции компании в ИИ и одновременно защищать организацию от ИИ. И сделать это без самого ИИ у вас не получится».