Как стать автором
Поиск
Написать публикацию
Обновить
369.84
FirstVDS
Виртуальные серверы в ДЦ в Москве и Амстердаме

Генеративные ИИ-модели внедряют скрытые водяные знаки в изображения: как обнаружить и удалить

Время на прочтение7 мин
Количество просмотров1.7K

Нейросети при тщательно проработанном текстовом запросе генерируют достаточно качественные изображения. Зачастую их сложно отличить от творений человека.

Для идентификации изображений, сгенерированных ИИ, нейросети встраивают в них незаметный цифровой водяной знак. Например, Google для своих моделей использует технологию SynthID. Подробности о скрытых знаках, естественно, не раскрываются.

В статье расскажем, для каких целей маркируются изображения ИИ и существуют ли способы удаления таких скрытых водяных знаков.

Как определить, что изображение создано ИИ

Есть три способа: визуальный, посредством чтения метаданных и с помощью AI-детекторов.

Визуально

Сгенерированные нейросетью изображения отличаются от реальных такими паттернами:

  • характерные искажения в текстурах, особенности освещения или теней;

  • неправильное отражение (в воде, в зеркале);

  • отсутствие естественного шума (реальные фото содержат шум сенсора);

  • слишком идеальные градиенты, неестественно плавные переходы.

Ошибки в анатомии (многорукие многоноги) и странные пропорции людей, животных, предметов также указывают на искусственный интеллект.

Сколько ног?
Сколько ног?
Разные зрачки, слишком гладкая кожа
Разные зрачки, слишком гладкая кожа
Неправильное отражение в воде
Неправильное отражение в воде

С помощью метаданных

Через форматы EXIF и XMP в изображениях автоматически записывается техническая информация (параметры и настройки камеры, геолокация, данные о редактировании и другие метаданные). Формат IPTC содержит описательную информацию (название, авторские права, подпись и другое), которая заполняется вручную в редакторе.

Все три формата независимы друг от друга и могут присутствовать в файле одновременно. Проверить метки можно в свойствах графических файлов и с помощью специальных программ, например, ExifTool, Adobe Bridge, WildBit Viewer, PhotoME.

В свойствах файла в строке Атрибуты отображается значение AI (искусственный интеллект).

AI-детекторы

Модели-детекторы обучаются на миллионах реальных и сгенерированных изображений, чтобы отличать одно от другого. Нейросетевой детектор проверяет, есть ли в его базе похожие ИИ-сгенерированные изображения. Если обнаруживается совпадение, система помечает картинку как искусственную.

Детектор Hive Moderation определяет картинку с вероятностью 99,9 % как творчество AI
Детектор Hive Moderation определяет картинку с вероятностью 99,9 % как творчество AI

Также AI-детекторы распознают скрытую информацию, которую нейросети встраивают в генеративные изображения. Первым о технологии скрытых меток заявил Google, представив инструмент SynthID для маркировки сгенерированных изображений. Цифровые водяные знаки размещаются среди пикселей. Они незаметны для человеческого глаза, не влияют на качество изображения и определяются специально обученными нейротехнологиями.

Скрытые знаки позволяют отслеживать происхождение контента.

Правовой аспект генерации изображений нейросетями

Относительно изображений, созданных с помощью ИИ, нет единого правового урегулирования. В разных странах законы по-своему трактуют авторские права на генерируемый нейросетью контент. Поэтому следует внимательно изучать пользовательское соглашение, прописанное на ИИ-платформе, которой вы пользуетесь, и проверять лицензию генератора.

Требования и разрешения у нейросетей отличаются. У каждой — свои правила относительно коммерческого использования изображений. При этом с ростом популярности каждая нейросеть всё больше добавляет ограничений. Например, Stable Diffusion на платформе Playground AI на первых порах разрешала использовать все сгенерированные изображения в коммерческих целях, в том числе и на бесплатном тарифе. По мере развития постепенно вводились ограничения на количество бесплатных генераций и ужесточались правила о передаче прав на изображения.

Сегодня использование изображений, созданных искусственным интеллектом, может быть ограничено или запрещено в следующих случаях:

  • Нарушение авторских прав. Нейросети обучаются на фотографиях и картинах известных (и не очень известных) художников. Эти произведения изобразительного искусства могут являться объектами авторского права. Если ИИ-генератор создал изображение, слишком похожее на работу реального художника, то использование таких картинок в коммерческих целях может привести к судебным искам. Если художник не давал согласия на использование своих произведений для обучения нейросети, он вправе заявить о нарушении своих авторских прав. Судебные прецеденты уже существуют.

  • Незаконный, запрещённый законодательством контент.

  • Создание фальшивых документов (паспортов, водительских прав, сертификатов, справок и т. п.).

  • Генерация поддельных фотографий для доказательства в суде или СМИ.

  • Использование deepfake-изображений для клеветы или шантажа, дезинформации (например, поддельные фото знаменитостей или политиков).

  • Нарушение правил ИИ-платформ: когда не соблюдается требование указывать, что изображения созданы искусственным интеллектом.

Поэтому, если вы планируете использовать AI-изображения в коммерческих целях, важно внимательно изучать условия использования нейросетей и учитывать возможные юридические последствия.

Зачем в изображения встраивают скрытые цифровые водяные знаки

Чем совершеннее становятся генеративные нейросети, тем острее встают вопросы этики и безопасности, связанные с использованием AI-контента.

Технические артефакты, которые присутствуют на изображениях после ИИ-генерации (такие, как лишние ноги), можно заранее исключить условиями промпта. И картинка будет выглядеть максимально естественно. А метаданные в файле легко удалить тем же софтом, в котором их можно просматривать.

Поэтому, чтобы обозначить, что изображение создано искусственным интеллектом, нейросети используют алгоритмы, которые позволяют встраивать в изображения скрытые цифровые водяные знаки. Скрытые водяные знаки становятся важным инструментом для маркировки изображений, помогая бороться с нарушением авторских прав, фейками и незаконным использованием сгенерированных материалов.

Можно ли удалить скрытые знаки ИИ на изображениях

Те, кто используют нейрокартинки не только в личных целях, но и в коммерческих, и при этом не скрывают, что изображение создано при помощи искусственного интеллекта, приобретают платную подписку для доступа к генеративным моделям. После оплаты выдаётся лицензия на использование полученных изображений, что гарантирует безопасность с юридической стороны.

А вот те, кто желает выдать результат работы нейросети за своё творение, часто оказываются в числе тех, кто старается найти способы, как обойти систему распознавания ИИ.

В сети предлагаются различные способы удаления скрытых меток ИИ для обхода системы распознавания. Основные способы:

  • использование фильтров в графических редакторах (шум, зернистость, размытие и т. п.);

  • кадрирование (предполагается, что метки нейросети ставят на краях изображений);

  • цветовая коррекция.

Проведём небольшой эксперимент. Создадим в разных генераторах AI-картинки и проверим, как влияют эти «народные» способы преобразования на определение авторства искусственного интеллекта.

Определять, создано изображение человеком или ИИ, будем с помощью AI-детекторов: 

  • Undetectable AI

  • Hive Moderation

  • Illuminarty

Эти сервисы часто упоминаются в различных обзорах, бесплатные и не требуют регистрации. Также нет ограничений на количество проверок.

Для чистоты эксперимента протестируем сначала детекторы на «человеческих» картинках.

Фотография этого жизнерадостного пушистика появилась в интернете задолго до ИИ-генераторов.

Проверим фотографию на AI-детекторах.

Реальную фотографию все три нейросетевых детектора определяют как «человеческую» с высокой долей вероятности (97 – 98%). 

Посмотрим, как обстоят дела с иллюстрациями. Создадим простые картинки в Photoshop (белый фон и кисть).

Детекторы определяют эти картинки, как творчество человека.

Ещё примеры. Иллюстрации нарисованы в Photoshop «с нуля».

Как видим, в изображениях, сходных с паттернами нейросети, детекторы Undetectable AI и Illuminarty усматривают творчество искусственного интеллекта. А вот детектор Hive Moderation верно определяет принадлежность картинки.

А эта акварельная зарисовка была создана в Stable Diffusion и тщательно отретуширована. Вот результаты детекции:

Undetectable AI и Hive Moderation явно указывают на искусственное происхождение, а Illuminarty сомневается.

Далее проверим картинки, созданные нейросетью (Stable Diffusion, бесплатный тариф).

По результатам тестирования можно сделать вывод, что AI-детектор Hive Moderation верно определяет авторство как «человеческих» фотографий и картинок, так и нейросети. Поэтому для эксперимента по удалению скрытых водяных знаков в изображениях ИИ будем использовать именно этот детектор.

Создадим в разных генераторах по одному и тому же промпту простые картинки с лесным пейзажем. Нейросети генерируют весьма реалистичные фотографии природы. Но мы добавим акварельный стиль, чтобы получить не фото, а картинки.

Промпт:

«Акварельный лесной пейзаж, реалистичная вода, солнечный день, нежная атмосфера, высокая детализация, высокое качество».

Выберем нейросети, доступные для пользователей из РФ и с возможностью бесплатной генерации изображений. Бесплатные изображения нельзя использовать в коммерческих целях, только для личного эстетического удовольствия без извлечения прибыли. Логично, что вероятность скрытых знаков в таких изображениях выше.

  • ChatGPT

  • Flux

  • Kandinsky 3.1

  • Stable Diffusion

  • YandexART

Для манипуляций оставим картинки в тех же форматах, в каких их позволяют скачивать AI-генераторы.

Проверим сгенерированные картинки на детекторе Hive Moderation.

Все акварели определяются, как AI-изображения.

Выполним цветокоррекцию (уровни, кривые, яркость в Photoshop) и обрезку краёв (сделаем все исходные картинки квадратными). Снова пропускаем через детектор.

Теперь переведём изображения в чёрно-белое и посмотрим результаты проверки на детекторе.

Детектор по-прежнему указывает на искусственный интеллект.

Попробуем применить фильтр с размытием.

Как видим, даже после обработки (кадрирования, цветокоррекции, изменения формата) детекторы продолжают распознавать AI-изображения. То есть, помимо распознавания изображений путём сравнения с картинками в базе, AI-детектор определяет какие-то скрытые нейросетевые метки. Эти метки встроены таким образом, что их не убирают манипуляции с картинками.

Попробуем сильно изменить одну из картинок.

Пропускаем через детектор и видим, что всё равно определяются следы ИИ.

Можно, конечно, различными фильтрами добиться такого результата, когда детектор не найдёт признаков ИИ. Но цель изменений — это всё-таки красивая качественная картинка, которая не определяется как результат работы ИИ.

К тому же детекторы ИИ также как и генеративные модели постоянно совершенствуются и могут находить остаточные следы любых скрытых меток.

В будущем, вероятно, появятся способы обхода скрытой маркировки. Но уже сейчас ясно: если ИИ-платформы ограничивают использование сгенерированных изображений, обойти эти правила будет непросто. 


НЛО прилетело и оставило здесь промокод для читателей нашего блога:

-15% на заказ любого VDS (кроме тарифа Прогрев) — HABRFIRSTVDS

Теги:
Хабы:
+5
Комментарии4

Публикации

Информация

Сайт
firstvds.ru
Дата регистрации
Дата основания
Численность
51–100 человек
Местоположение
Россия
Представитель
FirstJohn