Pull to refresh

Comments 9

 Его метод основан на PPG, методе, используемом для измерения количества света, который либо поглощается, либо отражается кровеносными сосудами в живой ткани. Когда наши сердца качают кровь, вены меняют цвет, и эти сигналы улавливаются технологией, чтобы определить, является ли видео подделкой или нет. 

ну значит ждем совершенствование deepfake - технологий, которые начнут это тоже подделывать. Эта ̶г̶о̶н̶к̶а̶ ̶в̶о̶о̶р̶у̶ж̶е̶н̶и̶й̶ соревновательная среда будет порождать все более изысканные решения, и конца ей увы не видно....

Если какой-то эффект, используемый для вычисления подделки, можно записать и воспроизвести на цифровом фото/видео, значит его можно и повторить. Вопрос лишь в технологии да в требуемых мощностях. Так что мне кажется да, тут deepfake все равно будет впереди всех методов обнаружения.

Ну как бы злоумышленники всегда были на шаг впереди :)

Есть мнение что цивилизации развиваются по спирали. Похоже мы совершили виток и пора возвращаться к древним техноллогиям и выдавать кредиты только при личном посещении офиса банка.

У меня для вас плохие новости. У нас в Беларуси по-другому и не было.

По поводу итогов тестирования: они обнаруживали разные дипфейки или одни и те же? Это я к тому, что сколько необнаруженных из 20 останется если прогнать через 2, 3 и 4?

Да просто через некоторое время видео и фото перестанет что-либо доказывать, вот и всё. Особенно если оно в массе будет. Со временем люди даже субъективно привыкнут, что любое фото и видео это просто картинка и художественный вымысел. Ну может для этого потребуется одна-две смены поколений. И вернёмся во времена, когда никакого видео и фото не было, была только живопись :)

Я считаю, что ждать совершенствования deepfake-технологий - это не самое позитивное отношение. Хотя эта технология может использоваться для полезных целей, например, для создания виртуальных туров или анимационных фильмов, она также может быть использована в негативных целях, например, для разжигания разногласий или нанесения ущерба репутации людей. К тому же, в настоящее время нет эффективных способов обнаружения и предотвращения негативного использования deepfake-технологий, что усугубляет проблему. Поэтому следует быть осторожным при использовании этой технологии и стремиться к разработке средств для ее контроля и предотвращения негативных последствий.

Intel — класс! Ожидаю полноценного релиза для более глубокого изучения функционала этого детектора.

Да. Для улучшения генератора нужен качественный контролер. Интел позволит дипфейкам подняться на недостижимую ранее высоту.

Sign up to leave a comment.