Как стать автором
Обновить

DeepFake в условиях современности: что, почему и возможно ли защититься

Время на прочтение11 мин
Количество просмотров9.3K
Всего голосов 10: ↑8 и ↓2+6
Комментарии9

Комментарии 9

 Его метод основан на PPG, методе, используемом для измерения количества света, который либо поглощается, либо отражается кровеносными сосудами в живой ткани. Когда наши сердца качают кровь, вены меняют цвет, и эти сигналы улавливаются технологией, чтобы определить, является ли видео подделкой или нет. 

ну значит ждем совершенствование deepfake - технологий, которые начнут это тоже подделывать. Эта ̶г̶о̶н̶к̶а̶ ̶в̶о̶о̶р̶у̶ж̶е̶н̶и̶й̶ соревновательная среда будет порождать все более изысканные решения, и конца ей увы не видно....

Если какой-то эффект, используемый для вычисления подделки, можно записать и воспроизвести на цифровом фото/видео, значит его можно и повторить. Вопрос лишь в технологии да в требуемых мощностях. Так что мне кажется да, тут deepfake все равно будет впереди всех методов обнаружения.

Ну как бы злоумышленники всегда были на шаг впереди :)

Есть мнение что цивилизации развиваются по спирали. Похоже мы совершили виток и пора возвращаться к древним техноллогиям и выдавать кредиты только при личном посещении офиса банка.

У меня для вас плохие новости. У нас в Беларуси по-другому и не было.

По поводу итогов тестирования: они обнаруживали разные дипфейки или одни и те же? Это я к тому, что сколько необнаруженных из 20 останется если прогнать через 2, 3 и 4?

Да просто через некоторое время видео и фото перестанет что-либо доказывать, вот и всё. Особенно если оно в массе будет. Со временем люди даже субъективно привыкнут, что любое фото и видео это просто картинка и художественный вымысел. Ну может для этого потребуется одна-две смены поколений. И вернёмся во времена, когда никакого видео и фото не было, была только живопись :)

Я считаю, что ждать совершенствования deepfake-технологий - это не самое позитивное отношение. Хотя эта технология может использоваться для полезных целей, например, для создания виртуальных туров или анимационных фильмов, она также может быть использована в негативных целях, например, для разжигания разногласий или нанесения ущерба репутации людей. К тому же, в настоящее время нет эффективных способов обнаружения и предотвращения негативного использования deepfake-технологий, что усугубляет проблему. Поэтому следует быть осторожным при использовании этой технологии и стремиться к разработке средств для ее контроля и предотвращения негативных последствий.

Intel — класс! Ожидаю полноценного релиза для более глубокого изучения функционала этого детектора.

Да. Для улучшения генератора нужен качественный контролер. Интел позволит дипфейкам подняться на недостижимую ранее высоту.

Зарегистрируйтесь на Хабре, чтобы оставить комментарий