Пока весь мир спорит, заменит ли ИИ человека, два разных подхода к регулированию ИИ вступают в решающую фазу.
В Европе с 2024 года работает первый в истории всеобъемлющий AI Act, который сейчас адаптируют под реалии бизнеса через пакет поправок Цифровой омнибус.
В России 18 марта 2026 года Правительство выкатило на публичное обсуждение свой проект, закон «Об основах государственного регулирования сфер применения технологий искусственного интеллекта».Оба документа вступают в силу примерно в одно время (2026-2027 годы), но философия у них кардинально разная.
ЕС защищает права человека и фундаментальные ценности через риск-ориентированный подход. Россия делает ставку на «технологический суверенитет» и защиту традиционных ценностей. Разбираемся, в чем различия и что это значит для бизнеса.
Европейский подход (AI Act):
ЕС выбрал риск-ориентированную модель. Все системы ИИ делятся на четыре категории:
Недопустимый риск — запрещены (социальный скоринг, манипуляции поведением).
Высокий риск — строгие требования (кредитные скоринги, найм сотрудников).
Ограниченный риск — требования прозрачности (чат‑боты, дипфейки).
Минимальный риск — без ограничений.
Главной целью являются защита здоровья, безопасности и фундаментальных прав человека. Штрафы колоссальные до €35 млн.
Российский подход:
Наш закон ставит во главу угла «обеспечение государственного технологического суверенитета» (Статья 1). Главное, чтобы критически важные нейросети были российскими, обучались в России и на российских данных.

Главные различия подходов в деталях
1. Что под запретом?
ЕС идет путем конкретных списков. Например, под запрет попали системы, считывающие эмоции на работе и в школах. А в марте 2026 года Европарламент одобрил запрет на приложения, которые с помощью ИИ «раздевают» людей на фото.
РФ использует более широкое понятие «эксплуатация уязвимостей человека» (Статья 3). Это включает возрастные, психологические, физические особенности. Красивая формулировка, но под нее можно подвести многое, от таргетированной рекламы сладкого детям до политической агитации.
2. Фундаментальные модели
В ЕС это General-Purpose AI (GPAI). Если ваша модель работает в ЕС, вы обязаны предоставить техдокументацию, резюме обучающих данных и соблюдать копирайт. Если модель несет «системные риски», то попадает под ужесточенный контроль со стороны специального AI Office.
В РФ это «суверенные и национальные большие фундаментальные модели» (Статья 7). Чтобы модель попала в эту категорию, нужно разрабатывать и обучать нейронку только в РФ. Использовать только граждан РФ и российские юрлица. Это прямое указание на импортозамещение в мире ИИ.
3. Ответственность и штрафы
Здесь Европа жестче в деньгах, но прозрачнее в критериях. Штрафы прописаны четко до 35 млн евро.
Российский проект (Статья 11) вводит сложную конструкцию с «заведомым знанием» и «исчерпывающими мерами».
На практике это будет означать долгие суды и экспертизы, чтобы доказать, что разработчик не мог знать о том, что нейросеть натворит.
> Статья 11.2 проекта: «Разработчик модели искусственного интеллекта, оператор системы искусственного интеллекта, владелец сервиса искусственного и��теллекта несут ответственность... при условии, что указанные лица заведомо знали или должны были знать о возможности получения такого результата... если в результате следственных действий не будет доказано обратное».
Обратите внимание: презумпция виновности разработчика/оператора, если не докажут обратное. Но есть и щит:
> Статья 11.3: «Разработчик... освобождаются от ответственности... в случае, если предприняли исчерпывающие меры к предотвращению получения такого результата».
Также прописана возможность регресса:
> Статья 11.6: «Оператор системы искусственного интеллекта, возместивший вред... вправе предъявить регрессное требование к разработчику данного объекта, если докажет, что вред возник исключительно вследствие недостатков объекта, которые существовал�� на момент его передачи оператору».
4. Территориальный принцип
ЕС наказывает всех, кто работает с данными европейцев, где бы компания ни находилась.
РФ пока регулирует только тех, кто «осуществляет деятельность на территории РФ» (Статья 1). Но если сервис популярен в России (более 500 тыс. пользователей в сутки), на него распространяются обязанности «владельца сервиса» (Статья 10).
> Статья 10.1: «Разработчик модели искусственного интеллекта обязан обеспечить безопасность созданной модели, включая:> а) исключение функциональных особенностей, способных привести к дискриминации на основе их поведения или личностных характеристик;> в) документировать архитектуру, логику функционирования и ограничения применяемых моделей искусственного интеллекта в объеме, необходимом для ее проверки...»
> Статья 10.2: «Оператор системы искусственного интеллекта обязан:> д) незамедлительно приостанавливать эксплуатацию объектов с использованием искусственного интеллекта при выявлении угрозы причинения вреда жизни, здоровью граждан, безопасности государства, имуществу физических или юридических лиц, окружающей среде».
Особенно интересен пункт для популярных сервисов:
> Статья 10.3г: «Если к сервису в течение суток обращается более пятисот тысяч пользователей сети «Интернет», находящихся на территории Российской Федерации, [владелец сервиса] выполняет обязанности, предусмотренные статьей 10.1 Федерального закона «Об информации...».
5. Интеллектуальная собственность
И здесь подходы интересно расходятся.
РФ легализует text and data mining для обучения нейросетей:
> Статья 13.5 проекта: «Не является нарушением авторских и (или) патентных прав их правообладателей извлечение информации из объектов, защищенных авторскими или патентными правами... для изготовления набора данных и (или) обучения искусственного интеллекта при условии, что изготовителем набора данных или разработчиком был получен правомерный экземпляр такого произведения, либо этот объект был доведен до всеобщего сведения».
ЕС тоже разрешает TDM, но с оговорками - правообладатели могут запретить использовать свои произведения для обучения ИИ. Российский вариант такого механизма отказа не предусматривает.
Оба закона вступят в силу в ближайшие пару лет, и именно сейчас закладываются правила игры на десятилетие вперед. Будет интересно наблюдать за тем, как эти решения поменяют индустрию.
Более подробный разбор проекта федерального закона «Об основах государственного регулирования применения технологий искусственного интеллекта» от 18.03.2026 в моей предыдущей статье.
Ещё больше последних новостей индустрии, обзоров нейросетей и лайфхаков по использованию ИИ в моем тг-канале Первые в ИИ.Ну почти
