Как стать автором
Обновить

Человек-подделка: какие бывают дипфейки лиц и как их детектировать

Время на прочтение5 мин
Количество просмотров5.7K
Всего голосов 8: ↑7 и ↓1+16
Комментарии5

Комментарии 5

  1. Существуют ли отдельные приложения, которые могли бы наложить шумы, препятствующие использованию фотографий при создании дипфейков? Что я, как простой пользователь, могу сделать, чтобы моими фотографиями из соцсетей никто не мог воспользоваться для создания фальшивки?

  2. Можно ли внедрить подобный алгоритм на уровне какой-либо платформы, где пользователи размещают свои рисунки, фотографии и подобные работы и не хотели бы, чтобы их фото, например, использовались для обучения нейросетей? Какими будут в этом случае издержки на выполнение обработки изображений?

К пункту 1: если такого приложения ещё нет, его пора создать (для начала - хотя бы декстопное). Однако возникает ряд вопросов: насколько сильно наложение шумов, препятствующих корректной обработке изображения нейросетями, искажает саму картинку? Если эти шумы заметно портят изображение, то чем определяется эта заметность и нельзя ли её снизить без существенного ухудшения эффективности защиты?

К пункту 2: вспомнился конфликт с Артстейшн. Мне кажется, появись альтернативная платформа, которая защищала бы всё, что на неё загружается, от использования в дальнейшем нейросетями, то она могла бы стать весьма популярной.

  1. Отдельные приложения для такой защиты я не встречал, если смотреть на демо видео авторов статьи, то все же заметно наложение шумов. Как раз этот шум и влияет на эффективность защиты, поэтому уменьшив интенсивность увеличится вероятность, что защита не сработает, будет не такой искаженный результат после применения одного из методов face swap, например.

  2. Для эффективности подобной платформы как минимум надо, чтобы поддерживалась защита против open-source дипфейк методов, чтобы быть готовыми к ним, помимо них есть еще закрытые методы, на которых не гарантируется защита. + все же видный шум, поэтому таких платформ еще нет, думаю, но мне было интересно показать про такое ресерч направление, как альтернатива C2PA по предварительной защите контента.

В ответ очень быстро сделают нейросеть для предобработки (или добявят слоёв в имеющиеся), которая будет убирать искажения перед заменой лица. Это гораздо проще, чем сама замена.

Интересное развитие прогресса. С одной стороны, разрешение изображений всё росло. С другой — вместо того, чтобы наслаждаться идеальным качеством, получаем всюду добавленные водяные знаки против пиратства. А теперь ещё могут быть и шумы против нейросетей.

Думаю, всё это ненадолго, всё это бесполезно. Какие-то мелкие дефекты и уязвимости дипфейков пофиксят если не через год, то через два. В общем конечная точка, к которой всё идёт понятна заранее — ничего отличить будет нельзя.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий