Pull to refresh

Comments 26

Точно, еще 2012 года была работа на эту тему:

Ха ха, так, а в чем проблема, чтобы научить ее создавать эти точки в высоком разрешении?

Насколько я понимаю там суть в том что в момент удара сердца кожа краснеет на 1%, а потом бледнеет обратно.
Дописать алгоритм дипфейка чтоб он менял цвет на 1% 60 раз в минуту вроде не так уж сложно
Я не разбираюсь в теме, но у меня вопрос — а она разве уже не учитывает с момента её создания? Дипфейк это же нейросеть, так? Нейросеть обучается на входных данных. Входными данными для дипфейка, насколько я помню, является видео, разобранное на кадры. Видео снимают в привычном человеку диапазоне видимого света. Если эту разницу можно увидеть, значит и на видео она должна быть зафиксированна. Значит, и нейросеть будет вкурсе, что цвет меняется, потому что это было в её входных данных и она, с моей точки зрения, должна была учитывать этот момент, потому что её учили воспроизводить то, что она видела. Если эту разницу нельзя увидеть, то и на видео она зафиксированна на будет. Значит, и пытаться ответить на вопрос «фейк или нет» по этому признаку было бы бессмысленно
Я тоже не спец, но насколько понимаю нейросеть просто «натягивает маску», насчет цвета не уверен, скорее всего цвет берется средний на лице в видео, лишь бы «швы» совпали, врядли он там пульсирует как надо. Но теперь будет.
Сеть обучают на изображениях малого размера. Там эти эффекты могут быть нивелированы.
UFO just landed and posted this here
можно переносить нестабильную часть с оригинального изображения на дипфейк
UFO just landed and posted this here

Можно скормить нейросети две группы видео, где в одной группе есть сигналы циркуляции крови, а в другой нет, нейросеть научится.
Если получить доступ к алгоритму исследователей, то дообучить нейросеть на результатах этого алгоритма.

Для вас «нейросеть» прямо неделимый черный ящик. На каждое подсвойство можно свою нейросеть сделать и обучить, хоть ушами шевелить заставить в такт движениям челюсти. К тому же сложный результат будет делаться комплексно, кроме нейросети и алгоритмические возможности можно применять.

Эту разницу можно увидеть (как иначе работает сам метод motion amplification?), вопрос в том, как происходило обучение, считались ли эти изменения полезным сигналом или случайным шумом.

То есть, получается, весь смысл такой
— есть множество всех изменений, происходящих с лицом, которые можно зафиксировать в видимом диапазоне
— есть изменения, являющиеся подмножеством множества выше, которые ввиду настроек обучения и/или хотелки создателей, не будут регистрироваться нейросетью
— поиск ответа на вопрос дипфейк или нет, будет строиться поиске и эксплуатации такого множества

Где-то так. Могу предположить, что и другие изменения, которые и могут быть усилены технологией motion amplification, могут быть взяты в оборот. Например, какие-то микродвижения, которые связаны с речью, звуком, вибрацией, действием механики оптического стабилизатора камеры (если камера не статична).

Идея отличная, думаю что она хорошо бы сработала на том соревновании на Каггле за 1кк$.


Хотя в будущем просто будут полностью сглаживать следы циркуляции крови и накладывать новые цельные, просто в качестве постобработки.

Я думаю в будущем у каждого видео будет цифровая подпись которая будет проверятся каким то образом, подписываться сертификатом и т.д… Если подписи нет, то видео не будет считаться аутентичным. Это в случае с оффициальными видео, политики и т.д. Все остальное аудио/видео будет считаться априори подделкой.

Уже было в фантастике. Хроники 33 миров Борис Иванов.
Класс железок назван «полицейским регистратором» (причем прямо сказано что это отдельная железка, даже с защитой от вскрытия), полиция обычно использует монструозные варианты но есть дорогие и элегантные. Можно свободно купить. Видео с регистратора автоматом принимается как доказательство.

Там же кстати интересный момент с глобальной сетью и что будет если объявить что-то несуществующим(не секретным а именно несуществующим) (ГГ нашел разницу в данных между тем что в сети и тем что в бумажном архиве, пошел к хакеру чтобы узнать кто поправил в сети, какие полные данные в сети из-за этого были удалены и так далее. Хакер даже денег брать не стал после того как ему показали различие в данных — просто с его точки зрения явная ложь в планетарной сети в сочетании с механизмами контроля целостности глобальной сети может вообще порушить многое. Заказчика установили и ему слили а исполнитель ГГ был и не и не нужен).


Посмотрите сериал The Capture, как раз про дипфейки.

Adobe недавно трубили о подобной технологии для "доверенных фото".

И как они это контролировать будут если не контролируют полностью устройство ?
(причем тут мало будет даже вусмерть залоченной прошивки — надо какую то защиту от «поставили экран перед камерой и на экране — то что надо» — а значит ставить например минимальный 3D-сканер благо уже делают — FaceID так работает ну и Kinect старый)

Конкретно Adobe хотят не совсем этого — они хотят позволить редактировать фотографии, но сохранить возможность надёжно проследить связь между тем, что поступило на вход редактора и получилось на его выходе.
Но, в конечном счёте, это действительно просто дань моде, точнее — паранойе на тему поддельных фото.

И как же система увидит это через слой макияжа?

А разве deepfake уже научился делать что то реалистичное?

В Голливуде на сколько знаю, до сих пор применяют motion capture технологии, и все равно получается такое себе, когда смотрел Gemini в кинотеатре, мыльно пластилиновое лицо молодого Уилл Смита оставило неприятное впечатление.

В Ирландце незаметно получилось омолодить Роберта Де Ниро, но там совсем лайтово, я думал грим, пока не увидел на ютубе видео о том как его снимали )
UFO just landed and posted this here
UFO just landed and posted this here
Прикольно, как сами исследователи, публикуя свои идеи по идентификации дипфейков — развивают и совершенствуют дипфейки…
Sign up to leave a comment.

Other news