Нейросети уже пишут книги, рисуют картины и сочиняют музыку. Но кто получает авторские права на эти произведения? Может ли ИИ быть автором? Законодательство пока не успевает за технологиями, и это создаёт правовую неразбериху. Разбираемся, как защитить свои права и не нарушить чужие в эпоху нейросетей.
Правовое регулирование ИИ в России
Согласно Федеральному закону № 123-ФЗ (2020), искусственный интеллект — это набор технологий, имитирующих человеческое мышление. Ключевая проблема в том, что ИИ не считается субъектом права. То есть нейросеть — это всего лишь инструмент в руках человека, такой же, как фотоаппарат или кисть художника.

В Указе Президента № 490 (2019) говорится о развитии ИИ, но не о регулировании его творений. Законодатели пока не решили главный вопрос: можно ли считать произведения, созданные нейросетью, объектами авторского права?
Попытки регулирования есть, но носят фрагментарный характер. Например, с 2025 года вводят новые ГОСТы:
ГОСТ Р 71657-2024 — регулирует ИИ в образовании;
ГОСТ Р 71675-2024 — устанавливает стандарты для медицинских ИИ-систем;
ГОСТ Р 71476-2024 — определяет базовые термины: «машинное обучение», «нейросеть», «генеративный ИИ».
Однако эти ГОСТы носят рекомендательный характер и не решают проблему авторства.
Кто владеет правами: пользователь, разработчик или никто?
Споры ведутся вокруг трёх вариантов:
1. Права у человека, если он внёс творческий вклад
Статья 1228 ГК РФ прямо указывает: автором может быть только физическое лицо, чьим творческим трудом создано произведение. Если нейросеть генерирует контент по простому запросу (например, «напиши стих о любви»), то результат не защищён авторским правом — это лишь технический вывод данных.
Но если пользователь детально контролирует процесс, то суд может признать его единственным правообладателем. Ключевой критерий — творческий вклад.
Пример сложного промпта вместо простого «нарисуй футуристический город»:
«Создай концепт-арт киберпанк-города 2180 года в стиле японской гравюры укие-э. Основные элементы:
неоновые вывески с иероглифами, подсвеченные розовым и синим;
дождь, отражающий свет рекламных голограмм;
люди в смешанной традиционно-футуристической одежде (кимоно с LED-вставками);
главный объект — мост, напоминающий токийский Симбаси.
Стиль: четкие линии, как у Хокусая, но с цифровым шумом и эффектом винтажной фотопленки. Соотношение темных и светлых зон — 70/30».
Результат от Kandinsky по этому запросу:



Если сотрудник компании использует ИИ для работы, то права принадлежат работодателю по ст. 1295 ГК РФ о служебных произведениях. Ниже описан интересный случай, когда девятый арбитражный апелляционный суд в деле № А40-200471/23 признал видеоролик объектом авторского права.
Компания «Рефейс технолоджис» заказала создание ролика с дипфейком Киану Ривза у «Адженда медиагрупп», заключив договор об отчуждении исключительных прав. Конфликт возник, когда «Бизнес-аналитика» использовала это видео в рекламных целях без разрешения. Правообладатель потребовал 500 тыс. рублей компенсации.
Ответчик пытался оспорить иск, утверждая, что применение технологии дипфейк исключает творческий характер произведения. Однако суд установил:
Видео содержало оригинальный сценарий и монтаж.
Дипфейк применялся только для замены лица актёра.
Основной творческий вклад принадлежал авторам.
Суд подчеркнул: использование ИИ-технологий не отменяет защиты авторских прав, если произведение создано творческим трудом. Взысканная сумма компенсации составила полмиллиона рублей.
2. Права у разработчика нейросети
Многие сервисы заранее прописывают в пользовательских соглашениях, что созданный контент принадлежит им. Например, Kandinsky от Сбербанка сохраняет за пользователем исключительные права на сгенерированный контент, но автоматически получает безотзывную безвозмездную лицензию на его использование в любых целях — от маркетинга до создания производных работ. Пользователь обязан указывать источник генерации и не может применять контент для разработки конкурирующих ИИ-решений.
Шедеврум предоставляет пользователям возможность некоммерческого использования созданного контента при обязательном соблюдении авторских прав. Для коммерческого использования необходимо письменное согласование с Яндексом через форму обратной связи, при этом пользователь предоставляет Яндексу право на использование контента в любых целях. Сервис не гарантирует уникальность генерируемых материалов: созданный контент может дублировать результаты других пользователей.
Все юридические риски, включая нарушения прав третьих лиц, несёт пользователь, который обязан подтверждать права на исходные материалы. Запрещено использовать сервис и контент для обучения конкурирующих ИИ-моделей.
3. Ничья — если ИИ создал контент без участия человека
Если нейросеть сгенерировала что-то полностью автономно (например, случайный текст или изображение), это не охраняется авторским правом и становится общественным достоянием.
Сложности с определением авторства возникают, когда невозможно чётко разделить вклад человека и нейросети. В таких случаях применяют несколько подходов:
Доминирующий вклад. Если основная творческая работа (разработка концепции, сценария, базового эскиза) выполнена человеком, а ИИ выступал лишь инструментом доработки, то авторские права сохраняются за создателем. Например: графический дизайнер самостоятельно разрабатывает композицию и цветовую гамму, поручая нейросети лишь генерацию отдельных элементов.
Совместное творчество. Пока в России нет норм для соавторства человека и ИИ. В ЕС предлагают ввести «смешанное авторство», но это спорно.

Как защитить свои права на контент от ИИ?
Главное — доказать творческий вклад. Для этого:
Сохраняйте все этапы работы: промпты, черновики, правки.
Прописывайте в договорах, что ИИ использовался как инструмент (как Photoshop или Word).
Маркируйте контент (если закон обяжет это сделать).
Маркировка контента созданного нейросетью
Маркировка контента, созданного ИИ, становится главным инструментом борьбы с дезинформацией, защитой авторских прав и повышением прозрачности. В разных странах подходы к этому вопросу различаются, но общая тенденция — ужесточение контроля за ИИ-контентом.
С мая 2025 года в ЕС и с сентября в Китае все системы, генерирующие аудио, видео, изображения или текст, обязаны внедрять машиночитаемые метки, позволяющие идентифицировать ИИ-контент. К ним относятся:
Цифровые водяные знаки — как видимые (например, логотип «Создано ИИ»), так и невидимые для человеческого глаза, но читаемые специальными алгоритмами.
Стандартизированные метаданные — информация о модели ИИ, дате создания, авторе промпта в формате IPTC или XMP.
Блокчейн-идентификаторы — криптографические подписи, позволяющие проверить цепочку создания контента.
Пока в России нет закона, обязывающего отмечать контент, созданный искусственным интеллектом. Но ситуация скоро изменится: правительство готовит закон «О регулировании систем ИИ», где прописана обязательная маркировка таких материалов.
Этот закон — часть большой стратегии развития искусственного интеллекта до 2030 года. Уже в 2025 году могут сделать первые конкретные шаги: маркировку начнут тестировать в отдельных отраслях и регионах.
Ответственность за ошибки ИИ: кто виноват?
В ноябре 2022 года пассажир Джейк Моффатт купил билеты Air Canada на похороны бабушки. Он доверился информации чат-бота, который обещал возврат части средств по льготному тарифу. Однако после перелёта авиакомпания отказалась выплачивать компенсацию. Тогда Моффатт подал иск против Air Canada.
Суд установил:
Чат-бот дал ложную информацию о возможности оформления скидки постфактум.
Air Canada несёт ответственность за действия своего ИИ-сервиса.
Авиакомпания не обеспечила точность данных на собственном сайте.
Суд обязал компанию выплатить компенсацию, признав, что чат-бот действовал как её представитель и клиент вправе был ему доверять. Этот случай ярко демонстрирует проблему: нейросети не могут нести ответственность сами, но их ошибки затрагивают реальных людей.
Почему ИИ не может быть ответственным? Нейросети действуют по алгоритмам, созданным людьми, и обучаются на данных, предоставленных разработчиками. Поэтому, согласно большинству правовых систем, включая российскую, ответственность за их ошибки ложится на владельцев, разработчиков или пользователей. Например, если ИИ-система в медицине поставит неверный диагноз, отвечать будет клиника, внедрившая её, или компания-разработчик — в зависимости от договора и обстоятельств.
Чтобы системно решать проблему, нужно:
Чёткое разграничение этапов жизненного цикла ИИ. Например, ответственность за ошибки в данных для обучения может лежать на поставщиках информации, а за некорректную интеграцию системы — на эксплуатантах.
Стандартизация требований к ИИ-системам. В России уже действуют ГОСТы, например:
ГОСТ Р 70462.1-2022 — оценивает устойчивость нейросетей к ошибкам;
ГОСТ Р 71484.1-2024, ГОСТ Р 71484.2-2024, ГОСТ Р 71484.3-2024 — регулируют качество данных для машинного обучения, определяют требования к их достоверности и защите.
Управление рисками. Стандарт ПНСТ 843-2023 обязывает организации учитывать последствия внедрения ИИ, включая этические и юридические риски, и ссылается на методы управления ими, описанные в ГОСТ Р ИСО 31000-2019.
Заключение
Пока ИИ остается инструментом, права на его произведения зависят от участия человека. Что делать сейчас?
Если создаете контент с ИИ — фиксируйте свой вклад, чтобы защитить авторские права.
Если используете чужой ИИ-контент — проверяйте условия сервиса: возможно, права принадлежат разработчикам.
Если внедряете ИИ в бизнес — учитывайте риски и страхуйте ответственность.
Пока закон не даёт четких ответов, но ситуация будет меняться. Главное — быть готовым к новым правилам.