Звонить в банк, интернет-провайдеру или в службу доставки бывает утомительно: бесконечно вежливый ИИ-ассистент, не понимая контекста, без усталости гоняет ответы по скриптам. В отличие от него пользователь вполне по-настоящему испытывает и злость, и усталость, ожидая соединения с человеком — тем самым, который поймёт вопрос за пять минут.

И вот, казалось бы, решение близко: в инфополе последнюю неделю обсуждают проект федерального закона «Об основах государственного регулирования сфер применения технологий искусственного интеллекта в Российской Федерации». 18 марта 2026 года его вынесли на общественное обсуждение, которое продлится до 15 апреля, а в случае принятия закон должен вступить в силу с 1 сентября 2027 года. Но речь в документе идет не только чат-ботах: в статье мы пишем и о других важных положениях.

В случаях, устанавливаемых Правительством Российской Федерации, лица и организации, осуществляющие оказание услуг, обязаны обеспечить гражданину, отказавшемуся от использования технологий искусственного интеллекта в его отношении, возможность получения услуг в форме и порядке, не предусматривающем автономное использование технологий искусственного интеллекта.

Звучит как цифровое право: «нажмите 0, если хотите живого оператора».
Однако в тексте это выглядит не как универсальный запрет на чат-ботов, а просто рамочная норма: организации обязаны дать человеку не-ИИ-альтернативу только в случаях, которые позже определит Правительство РФ. 

Какими будут случаи в тексте законопроекта не зафиксировано, но вокруг инициативы чаще всего пишут о медицине, праве, финансах и других чувствительных сценариях. Так что ждать масштабного ренессанса колл-центров в интересах пользователей вряд ли стоит. Куда вероятнее другой сценарий: общение с алгоритмами станет не исключением, а новой нормой — и этому придётся научиться всем. 

В том же блоке законопроект требует предупреждать пользователя, если товар или услуга продаются с применением ИИ без участия человека, а также отдельно уведомлять гражданина, если автономное решение ИИ затрагивает его права, обязанности или законные интересы.

Грани ответственности

Было бы ошибкой сводить весь документ только к праву послать нейросеть подальше и потребовать человека. Законопроект гораздо шире. Он строится на риск-ориентированном подходе: регулирование предлагается выстраивать с учетом назначения ИИ, вероятности и масштаба вреда, степени автономности системы, ее влияния на юридически значимые действия и характера обрабатываемой информации.

Для граждан, помимо права знать об использовании ИИ, документ закрепляет еще две важные вещи. Во-первых, возможность досудебно обжаловать решения и действия госорганов, региональных властей и организаций с госучастием, если те были приняты с использованием ИИ. Во-вторых, право на компенсацию вреда, причиненного неправомерным использованием ИИ. Вот это уже не про комфорт общения с роботом, а про более серьезную историю: можно ли спорить с автоматизированным решением и кто отвечает, если оно причинило ущерб.

Суверенные, национальные и доверенные: проект делит ИИ-модели

Еще одна важная часть проекта — классификация моделей. Документ вводит суверенные, национальные и доверенные модели ИИ. Суверенные и национальные модели жестко привязаны к российскому происхождению: их разработка и обучение должны проходить в России, силами российских граждан и юрлиц, на данных, сформированных в РФ. Для таких моделей проект предусматривает господдержку и отдельное регулирование.

Доверенные модели — это уже отдельный контур для систем, которые можно допустить в государственную инфраструктуру. Они должны быть включены в специальный реестр, соответствовать требованиям безопасности, обрабатывать данные только на территории России и проходить проверку качества по правилам, которые установят власти. Именно такие модели проект допускает к использованию в государственных информационных системах и на значимых объектах критической информационной инфраструктуры.

Проект идет дальше простой ставки на локальные решения. Он вводит понятие трансграничных ИИ-технологий — то есть технологий, связанных с территориями или субъектами двух и более государств, — и прямо говорит, что их функционирование может быть запрещено или ограничено в случаях, установленных российским законодательством. Какие именно это будут случаи, в текущей редакции не раскрыто. И, конечно, эту норму сразу стали использовать в информационном пространстве для создания кликбейта: заголовки о «скорой блокировке ChatGPT, Gemini и Claude» звучат громко, но в тексте законопроекта их роль весьма отдалена. На практике документ не запрещает эти сервисы здесь и сейчас, а лишь оставляет государству инструмент для принятия решений в будущем.

Маркировка ИИ-контента станет не пожеланием, а обязанностью

Отдельная глава проекта посвящена идентификации синтезированного контента. Владельцы ИИ-сервисов должны будут размещать предупреждение о том, что аудио, видео или иной контент создан с применением ИИ. Причем предупреждение должно быть не только понятным человеку, но и машиночитаемым. А крупные платформы с аудиторией более 100 тысяч пользователей в сутки на территории России должны будут проверять наличие такой маркировки в распространяемом синтезированном контенте; при ее отсутствии — либо добавлять предупреждение, либо удалять материал.

В мире, где синтетический контент становится все убедительнее, сама идея маркировки кажется вполне назревшей: нам хотя бы не придется напрягаться каждый раз пытаясь отличить реальность от сгенерированного контента.

Ответственность: виноват не только пользователь

Проект интересен еще и тем, что не пытается свалить все на конечного пользователя. Разработчики моделей, операторы систем и владельцы сервисов несут ответственность за результат, полученный с использованием ИИ, если знали или должны были знать о возможности противоправного результата. При этом они могут быть освобождены от ответственности, если докажут, что приняли исчерпывающие меры для предотвращения такого результата и соблюдали требования закона. Пользователь, в свою очередь, отвечает, когда противоправный результат стал следствием его умышленных действий или нарушения условий использования сервиса.

Самый обсуждаемый блок — про интеллектуальную собственность

Есть в проекте и раздел, который вызывает отдельную волну дискуссий: результаты, созданные с помощью ИИ, предлагается охранять по правилам ГК РФ, причем в тексте прямо сказано, что объектами интеллектуальной деятельности признаются оригинальные творения независимо от того, были ли они созданы человеком или автоматизированной системой.

Там же есть норма, по которой извлечение информации из охраняемых авторским или патентным правом объектов для обучения ИИ не считается нарушением, если использован правомерный экземпляр произведения либо объект был доведен до всеобщего сведения и доступен для анализа.

Мы увидели контуры будущих правил

Этот законопроект похож не на капитуляцию перед нейросетями, а на грамотную настройку системы: определение требований к доверенным моделям, маркировка ИИ-контента, возможные ограничения для трансграничных технологий и распределение ответственности между разработчиками, операторами и пользователями. То есть государство уже довольно ясно показывает, каким хочет видеть рынок ИИ. 

Безумно интересно заглянуть в будущее и узнать, как именно эти нормы будут наполняться содержанием дальше, как реализуются на практике и создадут новую правовую эру. Наверное, это как раз тот случай, когда хочется оставить небольшую записку в будущее — о том, как все это видится нам сегодня, — а потом спустя время сверить ее с реальностью. Расскажите в комментариях, если есть идеи или прогнозы 🙂