Всем привет, меня зовут Сергей Прощаев. Я Tech Lead и руководитель направления Java / Kotlin разработки в FinTech, а ещё преподаю на курсах разработки и архитектуры в OTUS. В этой статье хочу поговорить про AI Governance — тему, которая ещё пару лет назад казалась уделом скучных compliance‑менеджеров, а сегодня определяет, выживет ваш AI‑продукт или утянет компанию на сотни миллионов в минус.

Рис. 1 — AI Governance как баланс между скоростью инноваций и контролем рисков
Рис. 1 — AI Governance как баланс между скоростью инноваций и контролем рисков

Я смотрю на AI Governance не как юрист и не как продакт. Я смотрю как архитектор. Человек, которому важно видеть всю систему целиком, предсказывать узкие места и проектировать так, чтобы ничего не развалилось ни на проде, ни в суде. И я вам скажу честно: после нескольких рабочих стычек с реальностью я перестал относиться к этой теме как к бюрократической обузе. И вот почему.

Момент, когда Governance перестаёт быть абстракцией

Когда архитектор слышит словосочетание «AI Governance», у него в голове часто всплывают образы бесконечных таблиц, регламентов и политик, которые пишутся ради галочки. Это нормальная защитная реакция. Я сам так думал, пока однажды не упёрся в простой вопрос от службы информационной безопасности: «Ваша новая генеративная фича, которая пишет ответы от лица сотрудника, — мы понимаем, при каких условиях она может сказать то, чего говорить нельзя? И кто за это ответит?»

Это был FinTech. Денег на кону много, репутация ещё дороже. Я поймал себя на мысли, что мы не просто не знаем ответа — мы даже не сформулировали критерии «недопустимого поведения» модели. Мы тестировали точность ответов, задержки, даже тональность. Но никто из инженеров не задал вопрос: «А что, если модель начнёт давать финансовые рекомендации, притворяясь человеком?» И здесь я увидел глубинную проблему: разработка бежала вперёд, а архитектурный контроль за недетерминированным поведением отсутствовал как класс.

С этого момента я понял: AI Governance — это не про бумажки. Это про системный взгляд на риски, который должен быть вшит в архитектуру с самого начала. И если вы не сделаете этого, за вас это сделает суд.

Чему нас научил канадский чат‑бот: кейс Air Canada

Чтобы не быть голословным, давайте вспомним реальную историю, которая прогремела в 2023–2024 годах и стала классикой «как не надо делать». Канадская авиакомпания Air Canada внедрила на своём сайте чат‑бота для поддержки клиентов. Обычный генеративный AI, обученный на базе знаний компании. Всё шло нормально, пока один пассажир не спросил у бота, можно ли получить скидку на билет по специальному тарифу для скорбящих родственников (bereavement fare).

Чат‑бот уверенно ответил: да, вы можете купить билет по полной цене сейчас, а потом подать заявку на возврат разницы в соответствии с политикой компании. Проблема была в том, что такой политики у Air Canada не существовало. Модель её просто выдумала — сработали галлюцинации, типичная штука для LLM.

Пассажир, как вы понимаете, сделал ровно то, что посоветовал бот, а затем обратился за компенсацией. Компания отказала, заявив: «бот — это отдельная сущность, вы должны были читать официальные правила на сайте». Дело дошло до суда. И суд встал на сторону пассажира, обязав Air Canada выплатить компенсацию и фактически признав, что компания несёт полную ответственность за всё, что генерирует её AI‑инструмент.

Для меня как архитектора это был показательный щелчок по носу. Компания сэкономила на слое управления: не было чёткого контракта между моделью и бизнес‑правилами, не было валидации ответов на соответствие реальным политикам, не было мониторинга галлюцинаций. Это не баг кода — это провал архитектурного governance. И цена вопроса — не только деньги, но и прецедент, который теперь будет всплывать во всех AI‑рисках.

Три ключевых тренда AI Governance в 2026 году

Теперь давайте разложу, что изменилось и на чём фокусируются сильные команды. Я специально не буду сыпать аббревиатурами из отчётов Gartner, а расскажу, что реально происходит на земле.

Тренд 1: От добровольных принципов к автоматическому контролю

Долгое время главным инструментом были этические принципы. Компании публиковали красивые документы «Наши принципы ответственного ИИ» — и на этом всё заканчивалось. В 2026 году ни один серьёзный заказчик или регулятор (неважно, в какой стране) уже не принимает слова на веру. Все хотят видеть доказательства.

Как это выглядит на практике: появляются инструменты автоматизированной проверки моделей на соответствие политикам. Например, guardrails (ограничители) вокруг LLM, которые в реальном времени фильтруют запрещённые темы, блокируют утечку PII или предотвращают генерацию обязательств от лица компании. В крупных enterprise‑проектах внедряют специальные прокси‑слои, которые валидируют каждый запрос и ответ модели ещё до того, как он уйдёт пользователю.

Я сам вижу, как команды, раньше тратившие недели на пентесты, теперь ставят автоматические политики на уровне API‑шлюза. Это архитектурный паттерн, который можно и нужно проектировать заранее.

Тренд 2: Полный lifecycle management рисков модели

Помните тестовое задание для системного аналитика, где спрашивают про «верификацию пользователя»? Примерно такая же ловушка ждёт и здесь. Многие думают: «Мы обучили модель, протестировали, прогнали через проверку — всё». И забывают, что модель деградирует. Данные дрейфуют. Появляются новые атаки. То, что работало вчера, сегодня может вести себя непредсказуемо.

Поэтому один из главных трендов — сквозной lifecycle management. Начинается он не в момент обучения, а ещё на этапе постановки задачи: можем ли мы вообще измерить fairness? Умеем ли мы детектировать дрейф? Заданы ли пороговые значения для автоматического отката?

Сильные команды внедряют Model Risk Management (MRM), по духу похожий на управление операционными рисками в финансах. Я видел, как в одном банке для каждой ML‑модели завели «паспорт риска», где описаны границы применимости, триггеры переобучения и точные метрики, по которым модель отключается без участия человека. Вот это архитектурный подход.

Тренд 3: Прозрачность и explainability перестают быть галочкой

Объяснимость долго подавали как академическую фишку. Но в реальном мире бизнесу всё равно, как устроены слои нейронки. Пока она ошибается на долю процента и не нарушает закон — всем окей. Однако в чувствительных доменах (кредитный скоринг, медицина, HR) непрозрачная модель стала прямым бизнес‑риском.

Я наблюдаю, как в B2B‑контрактах всё чаще появляется пункт «право на объяснение решения». Заказчик хочет не просто API с ответом «отказано», а причину, сформулированную на человеческом языке. Это заставляет пересматривать архитектуру: использовать ансамбли с интерпретируемыми моделями поверх «чёрных ящиков», внедрять слои post‑hoc объяснений (SHAP, LIME) прямо в пайплайны.

Как архитектор я смотрю на это так: если мы не способны объяснить решение системы, то мы не контролируем её поведение. А значит, мы не контролируем бизнес‑процесс. Это невыносимо для любой серьёзной компании.

Рис. 2 — Карта ключевых рисков AI-проекта, которые закрывает governance
Рис. 2 — Карта ключевых рисков AI‑проекта, которые закрывает governance

Исходя из этой схемы (рис. 2), риски в AI‑проектах не свалены в одну кучу, а расползаются по четырём ключевым направлениям — Данные, Модель, Безопасность и Compliance/Бизнес. Каждая ветка показывает конкретные болевые точки: от качества данных и дрейфа модели до утечек, инъекций и юридической ответственности. И основная идея в том, что AI Governance — это не абстрактная «забота о безопасности», а ровно про то, чтобы системно работать с каждой из этих веток, а не заливать проблемы только на уровне кода.

Тренд 4: Governance‑as‑Code — когда политики живут в CI/CD

Раньше compliance‑чек был ручным: перед релизом команда собирала артефакты и показывала их отделу безопасности. Это тормозило всё. Сейчас лучшие практики идут к тому, что политики контроля версионируются и исполняются автоматически прямо в пайплайне.

Я видел, как ребята из одного AI‑стартапа реализовали проверки в GitHub Actions: если модель в pull request показывает fairness‑метрику ниже порога — билд падает. Всё. Никаких уговоров. Это и есть governance‑as‑code. И это не про бюрократию — это про инженерную культуру, где ответственность автоматизирована.

Рис. 3 — Принципиальная схема: конвейер AI Governance на этапах жизненного цикла модели
Рис. 3 — Принципиальная схема: конвейер AI Governance на этапах жизненного цикла модели

AI Governance — это не разовая проверка перед релизом, а непрерывный конвейер, встроенный во все этапы жизни модели. От определения требований (рис. 3) мы проходим через валидацию данных, обучение и автоматическое тестирование fairness/explainability/безопасности. Ключевой развилкой становится гейт «Соответствует политикам?»: если нет — релиз блокируется, модель уходит на итерацию; если да — развёртывается с непрерывным мониторингом дрейфа и инцидентов. А мониторинг, в свою очередь, через петлю обратной связи триггерит переобучение. Основная мысль — governance не прилеплен сбоку, а является обязательным архитектурным шлюзом на всём жизненном цикле.

Best Practices и то, что я вынес из рабочих проектов

Помимо трендов, хочу дать несколько конкретных практик, которые я либо применял сам, либо подсмотрел у команд, реально работающих с AI в production:

  1. «Паспорт модели» как минимально жизнеспособный артефакт. Не нужно писать многотомные документы. Но каждая значимая ML‑модель должна иметь чётко описанные: цель, границы применимости, перечень известных ограничений, владельца и триггеры для вывода из эксплуатации. Это занимает одну страницу, но спасает от катастроф вроде «она начала вести себя странно, а мы не знали, кто за неё отвечает».

  2. Разделение ответственности между ролями. В реальности AI‑сервис — это не только data scientists. Я всегда настаиваю на том, чтобы архитектор, разработчик, безопасник и владелец бизнес‑требований явно договорились, кто валидирует данные, кто подписывает точность, кто отвечает за мониторинг инцидентов. Без этого governance превращается в игру в одни ворота.

  3. Культура «What if». Это я перенял из системного анализа. Сильные команды во время проектирования задают себе вопросы: «А что, если наша модель начнёт генерировать советы по самолечению? А что, если её обманут через prompt injection? А что, если она начнёт дискриминировать по полу?» И не просто спрашивают, а проектируют защиту от этих сценариев. Это не паранойя — это архитектурная гигиена.

  4. Прозрачность перед пользователем. В B2C‑продуктах я теперь считаю хорошим тоном честно маркировать AI‑сгенерированный контент и давать пользователю возможность отказаться от автоматических решений. Это снижает юридические риски и, как ни странно, повышает доверие. Мы проверяли: люди лояльнее относятся к сервису, который не пытается притвориться человеком.

Вывод: архитектор — это стратег, а не надзиратель

Когда я начинал разбираться в AI Governance, мне казалось, что это набор ограничений, который мешает быстро пилить фичи. Сейчас я воспринимаю это как часть архитектурного мышления. Если ваша система включает недетерминированные компоненты вроде LLM, вы просто обязаны проектировать петли контроля. Это не про страх перед регуляторами — это про профессиональную ответственность.

Кейс Air Canada — идеальная иллюстрация того, как отсутствие этих петель приводит к конкретным убыткам и судебным прецедентам. Но ещё больше мне нравится, когда грамотно выстроенный governance помогает команде спать спокойно и фокусироваться на продуктовых задачах, а не на ночных инцидентах.

Если тема AI Governance для вас уже перестала быть абстрактной и начала превращаться в рабочую задачу, продолжить разбор можно на открытом уроке OTUS «Критерии качества и безопасности AI‑систем в продукте». Он пройдёт 19 мая в 20:00 в рамках курса «Стратегия и управление ИИ в компании». Поговорим о том, как оценивать качество и безопасность AI‑систем, где ставить контрольные точки и как выстраивать governance без лишней бюрократии, но с нормальной инженерной ответственностью.

Записаться на открытый урок

Подробнее о курсе

Подписывайтесь на блог OTUS — здесь мы разбираем AI, архитектуру и инженерные практики с привязкой к реальным задачам команд.