Как стать автором
Обновить

Комментарии 26

Точно, еще 2012 года была работа на эту тему:

Ха ха, так, а в чем проблема, чтобы научить ее создавать эти точки в высоком разрешении?

Насколько я понимаю там суть в том что в момент удара сердца кожа краснеет на 1%, а потом бледнеет обратно.
Дописать алгоритм дипфейка чтоб он менял цвет на 1% 60 раз в минуту вроде не так уж сложно
Я не разбираюсь в теме, но у меня вопрос — а она разве уже не учитывает с момента её создания? Дипфейк это же нейросеть, так? Нейросеть обучается на входных данных. Входными данными для дипфейка, насколько я помню, является видео, разобранное на кадры. Видео снимают в привычном человеку диапазоне видимого света. Если эту разницу можно увидеть, значит и на видео она должна быть зафиксированна. Значит, и нейросеть будет вкурсе, что цвет меняется, потому что это было в её входных данных и она, с моей точки зрения, должна была учитывать этот момент, потому что её учили воспроизводить то, что она видела. Если эту разницу нельзя увидеть, то и на видео она зафиксированна на будет. Значит, и пытаться ответить на вопрос «фейк или нет» по этому признаку было бы бессмысленно
Я тоже не спец, но насколько понимаю нейросеть просто «натягивает маску», насчет цвета не уверен, скорее всего цвет берется средний на лице в видео, лишь бы «швы» совпали, врядли он там пульсирует как надо. Но теперь будет.
Сеть обучают на изображениях малого размера. Там эти эффекты могут быть нивелированы.
НЛО прилетело и опубликовало эту надпись здесь
можно переносить нестабильную часть с оригинального изображения на дипфейк
НЛО прилетело и опубликовало эту надпись здесь

Можно скормить нейросети две группы видео, где в одной группе есть сигналы циркуляции крови, а в другой нет, нейросеть научится.
Если получить доступ к алгоритму исследователей, то дообучить нейросеть на результатах этого алгоритма.

Для вас «нейросеть» прямо неделимый черный ящик. На каждое подсвойство можно свою нейросеть сделать и обучить, хоть ушами шевелить заставить в такт движениям челюсти. К тому же сложный результат будет делаться комплексно, кроме нейросети и алгоритмические возможности можно применять.

Эту разницу можно увидеть (как иначе работает сам метод motion amplification?), вопрос в том, как происходило обучение, считались ли эти изменения полезным сигналом или случайным шумом.

То есть, получается, весь смысл такой
— есть множество всех изменений, происходящих с лицом, которые можно зафиксировать в видимом диапазоне
— есть изменения, являющиеся подмножеством множества выше, которые ввиду настроек обучения и/или хотелки создателей, не будут регистрироваться нейросетью
— поиск ответа на вопрос дипфейк или нет, будет строиться поиске и эксплуатации такого множества

Где-то так. Могу предположить, что и другие изменения, которые и могут быть усилены технологией motion amplification, могут быть взяты в оборот. Например, какие-то микродвижения, которые связаны с речью, звуком, вибрацией, действием механики оптического стабилизатора камеры (если камера не статична).

Идея отличная, думаю что она хорошо бы сработала на том соревновании на Каггле за 1кк$.


Хотя в будущем просто будут полностью сглаживать следы циркуляции крови и накладывать новые цельные, просто в качестве постобработки.

Я думаю в будущем у каждого видео будет цифровая подпись которая будет проверятся каким то образом, подписываться сертификатом и т.д… Если подписи нет, то видео не будет считаться аутентичным. Это в случае с оффициальными видео, политики и т.д. Все остальное аудио/видео будет считаться априори подделкой.

Уже было в фантастике. Хроники 33 миров Борис Иванов.
Класс железок назван «полицейским регистратором» (причем прямо сказано что это отдельная железка, даже с защитой от вскрытия), полиция обычно использует монструозные варианты но есть дорогие и элегантные. Можно свободно купить. Видео с регистратора автоматом принимается как доказательство.

Там же кстати интересный момент с глобальной сетью и что будет если объявить что-то несуществующим(не секретным а именно несуществующим) (ГГ нашел разницу в данных между тем что в сети и тем что в бумажном архиве, пошел к хакеру чтобы узнать кто поправил в сети, какие полные данные в сети из-за этого были удалены и так далее. Хакер даже денег брать не стал после того как ему показали различие в данных — просто с его точки зрения явная ложь в планетарной сети в сочетании с механизмами контроля целостности глобальной сети может вообще порушить многое. Заказчика установили и ему слили а исполнитель ГГ был и не и не нужен).


Посмотрите сериал The Capture, как раз про дипфейки.

Adobe недавно трубили о подобной технологии для "доверенных фото".

И как они это контролировать будут если не контролируют полностью устройство ?
(причем тут мало будет даже вусмерть залоченной прошивки — надо какую то защиту от «поставили экран перед камерой и на экране — то что надо» — а значит ставить например минимальный 3D-сканер благо уже делают — FaceID так работает ну и Kinect старый)

Конкретно Adobe хотят не совсем этого — они хотят позволить редактировать фотографии, но сохранить возможность надёжно проследить связь между тем, что поступило на вход редактора и получилось на его выходе.
Но, в конечном счёте, это действительно просто дань моде, точнее — паранойе на тему поддельных фото.

И как же система увидит это через слой макияжа?

А разве deepfake уже научился делать что то реалистичное?

В Голливуде на сколько знаю, до сих пор применяют motion capture технологии, и все равно получается такое себе, когда смотрел Gemini в кинотеатре, мыльно пластилиновое лицо молодого Уилл Смита оставило неприятное впечатление.

В Ирландце незаметно получилось омолодить Роберта Де Ниро, но там совсем лайтово, я думал грим, пока не увидел на ютубе видео о том как его снимали )
НЛО прилетело и опубликовало эту надпись здесь
НЛО прилетело и опубликовало эту надпись здесь
Прикольно, как сами исследователи, публикуя свои идеи по идентификации дипфейков — развивают и совершенствуют дипфейки…
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории