Comments 16
Это команда разработчик нашумевшего FindFace поиск людей в ВК. И не трудно догадаться какой датасет с лицами они использовали. Поэтому дисквалификация All Faces Are Real действительно странная.
Даже у очень качественных дипфейков между кадрами есть помехи
Если это единственный способ отличить дипфейк от оригиналов, то он очень ненадёжный — рано или поздно от помех избавятся (или добавят равномерно во все кадры), так что любое решение на этом основанное — очень временное.
Совершенно согласен. Думаю что в будущем у всех камер и программ просто будут специальные сертифицированные алгоритмы, которые добавляют специальные точки на изображение, по типу тех, которые используются для сбора статистики с TV.
А все видео, которые таких меток не содержат (меток, что однозначно идентифицируют время, место и автора съёмки) — автоматически будут помечаться НЕДОСТОВЕРНЫМИ.
Ютуб, например, на все свои старые видео сам метки добавит.
Но это никак не помешает делать фейки тем кто создаёт камеры и программы.
Единственный сравнительно надёжный вариант — одновременная запись на две-три камеры от разных производителей (каждый из которых в своей юрисдикции) с цифровой подписью видеопотока (покадрово с метками времени + KSI blockchain), которая реализуется на самом чипе матрицы.
Я больше про психологию, а не технологии.
Если представить будущее, вот ходите вы на Ютуб, или кто-то на телефон видео снял и вам скинул. В свойства видео заходите — там нужные метки есть. А если вам скинули видео, или кто-то залил на Ютуб без этих меток, то на видео огромная надпись, мол «видео возможно не достоверное».
Со временем все привыкнут и уже априори не будут доверять тем видео, которые без меток и у которых нельзя установить достоверность.
Немного отдаленный пример, это SSL сертификат: то есть если значок зелёный и с названием компании, то вероятно сайту можно доверять.
Камеры будут ставить метки? Значит реверснут камеру и научат софт ставить эти метки
ID камеры не в общей базе заапрувленных устройств, значит видео недостоверное. Я понимаю что этот механизм не идеален, но распознавание фейковых видео так, как пытаются делать сейчас — совсем тупиковый путь.
Приватные ключи из какого только железа сколько раз уже воровали. Даже не сосчитать. Одно единственное устройство крупные бренды типа МС, Эппла, Сони не могут защитить, а тут целый зоопарк камер от китая до брендов.
Что-то я не слышал про взломанные зашифрованные устройства от Apple или Samsung путем вытаскивания ключа.
АНБ и ФБР в 2016 пытались взломать один айфон, обломались (нашумевшая была история), а уж с их-то ресурсами вроде как не должны были, если бы это было возможно.
Cellebrite утверждают что могут и разлочить и расшифровать, но никаких подтверждений этому нет, кроме их собственных заявлений, но даже если могут — то скорее за счёт того что убирают счётчик попыток на пин, а там уже всё просто, ибо про брут-форс хотя бы AES-128 пока рано говорить.
Про вытаскивание ключей из холодного залоченного TPM тоже вроде как никто не сообщал, был только сниффинг с LPC шины, но для этого его нужно сначала разлочить.
Вроде всё — больше отчётов о взломах не было — если знаете, поделитесь.
Ещё момент. Это нужно для проверки каких-то спорных моментов, то есть чтобы по метке получить пруф в процессе проверки фактов.
А если кто-то подделал метку, камеру и время, ну… ну и ладно. Это и будет правдой для проверяющих. Идеально, на мой взгляд, проблему не решить.
Подскажите о каких точках для статистике в ТВ речь?
Компания наняла более 3,5 тыс. актеров
Это любопытно. В тренировочных данных их было человек 50. Во многом этим и объясняется плохая обобщающая способность алгоритмов разработанных участниками.
Ну всё, теперь разработчики алгоритмов дипфейков обучат свои нейросетки на данных из конкурса фейсбука, и дипфейки станут ещё более качественными и неотличимыми имеющимися средствами.
Программист из Минска победил в конкурсе Facebook Deepfake Detection Challenge