Комментарии 26
Ха ха, так, а в чем проблема, чтобы научить ее создавать эти точки в высоком разрешении?
Дописать алгоритм дипфейка чтоб он менял цвет на 1% 60 раз в минуту вроде не так уж сложно
Можно скормить нейросети две группы видео, где в одной группе есть сигналы циркуляции крови, а в другой нет, нейросеть научится.
Если получить доступ к алгоритму исследователей, то дообучить нейросеть на результатах этого алгоритма.
Эту разницу можно увидеть (как иначе работает сам метод motion amplification?), вопрос в том, как происходило обучение, считались ли эти изменения полезным сигналом или случайным шумом.
— есть множество всех изменений, происходящих с лицом, которые можно зафиксировать в видимом диапазоне
— есть изменения, являющиеся подмножеством множества выше, которые ввиду настроек обучения и/или хотелки создателей, не будут регистрироваться нейросетью
— поиск ответа на вопрос дипфейк или нет, будет строиться поиске и эксплуатации такого множества
Где-то так. Могу предположить, что и другие изменения, которые и могут быть усилены технологией motion amplification, могут быть взяты в оборот. Например, какие-то микродвижения, которые связаны с речью, звуком, вибрацией, действием механики оптического стабилизатора камеры (если камера не статична).
Идея отличная, думаю что она хорошо бы сработала на том соревновании на Каггле за 1кк$.
Хотя в будущем просто будут полностью сглаживать следы циркуляции крови и накладывать новые цельные, просто в качестве постобработки.
Я думаю в будущем у каждого видео будет цифровая подпись которая будет проверятся каким то образом, подписываться сертификатом и т.д… Если подписи нет, то видео не будет считаться аутентичным. Это в случае с оффициальными видео, политики и т.д. Все остальное аудио/видео будет считаться априори подделкой.
Класс железок назван «полицейским регистратором» (причем прямо сказано что это отдельная железка, даже с защитой от вскрытия), полиция обычно использует монструозные варианты но есть дорогие и элегантные. Можно свободно купить. Видео с регистратора автоматом принимается как доказательство.
Там же кстати интересный момент с глобальной сетью и что будет если объявить что-то несуществующим(не секретным а именно несуществующим) (ГГ нашел разницу в данных между тем что в сети и тем что в бумажном архиве, пошел к хакеру чтобы узнать кто поправил в сети, какие полные данные в сети из-за этого были удалены и так далее. Хакер даже денег брать не стал после того как ему показали различие в данных — просто с его точки зрения явная ложь в планетарной сети в сочетании с механизмами контроля целостности глобальной сети может вообще порушить многое. Заказчика установили и ему слили а исполнитель ГГ был и не и не нужен).
Adobe недавно трубили о подобной технологии для "доверенных фото".
(причем тут мало будет даже вусмерть залоченной прошивки — надо какую то защиту от «поставили экран перед камерой и на экране — то что надо» — а значит ставить например минимальный 3D-сканер благо уже делают — FaceID так работает ну и Kinect старый)
Конкретно Adobe хотят не совсем этого — они хотят позволить редактировать фотографии, но сохранить возможность надёжно проследить связь между тем, что поступило на вход редактора и получилось на его выходе.
Но, в конечном счёте, это действительно просто дань моде, точнее — паранойе на тему поддельных фото.
И как же система увидит это через слой макияжа?
В Голливуде на сколько знаю, до сих пор применяют motion capture технологии, и все равно получается такое себе, когда смотрел Gemini в кинотеатре, мыльно пластилиновое лицо молодого Уилл Смита оставило неприятное впечатление.
В Ирландце незаметно получилось омолодить Роберта Де Ниро, но там совсем лайтово, я думал грим, пока не увидел на ютубе видео о том как его снимали )
Исследователи предлагают обнаруживать дипфейки с заменой лиц при помощи особенностей циркуляции крови