Исследователи из Карнеги-Меллона создали пока самые правдоподобные «deepfakes»

Когда-либо слышали о «deepfakes»? ИИ, который накладывает лицо одного человека на тело другого, использовали для замены Харрисона Форда на Николаса Кейджа в бесчисленных видеоклипах, а также и для более гнусных целей: знаменитости без их ведома появились в порно и пропаганде. Теперь, к лучшему или худшему, исследователи из Университета Carnegie Mellon разработали новую, более мощную и универсальную систему.


Она называется «Recycle-GAN». Это система для трансформации содержимого одного видео или фотографии по подобию другого, обучающаяся исключительно на входных неразмеченных данных (обучение без учителя). «Задача изменения контента c сохранением стиля оригинала имеет множество применений, например, наложение движений и мимики одного человека на другого, обучение роботов методом “делай как я”, — говорят исследователи, — или преобразование черно-белых видео в цветные».

До сих пор даже самые продвинутые методы трансформации были нацелены на человеческие лица, и по мнению исследователей, «их практически невозможно было применить в др. областях», кроме того «они очень плохо работают с частично скрытыми лицам». Другие методы используют покадровую трансформацию, который требует трудоемкой ручной маркировки и выравнивания данных.

image

Recycle-GAN же использует генеративно-состязательные сети(GAN) и «пространственно-временные маркеры, чтобы “связать” две картинки или видео. (GAN — это модели, состоящие из генератора, который пытается «обмануть» дискриминатора, производя все более реалистичные результаты из входных данных.) При обучении на видео с людьми, они создают ролики с такими такие трудноуловимыми моментами как ямочки на щеках, формирующиеся при улыбке и движении губ.

«Без какого-либо вмешательства и изначальных знаний, связанных с конкретикой видео, наш подход способен обучиться просто используя общедоступные предметные ролики из Интернета», — пишет команда разработчиков

Recycle-GAN способен на гораздо больше чем только передача мимики лица. Исследователи использовали его для изменения погодных условий в видео, конвертировав полный штиль в ветреный день. Они имитировали цветущие и умирающие цветы, и синтезировали убедительный восход солнца из видео в Интернете.


Результаты тестирования достаточно хороши: системе удалось обмануть 15 испытуемых в 28,3% случаев, но команда полагает, что продукция будущих версий системы может быть более правдоподобной, если они примут во внимание скорость воспроизведения, например, насколько быстрее или медленнее говорят люди в видео

«Правдоподобный перенос стиля должен быть способным учитывать даже разницу во времени, получающуюся при воспроизведения речи / контента», — написала команда. «Мы считаем, что лучшая пространственно-временная архитектура нейронной сети может решить эту проблему в ближайшем будущем».


Неудивительно, что deepfakes остаются горячо обсуждаемой актуальной проблемой. Публично доступные сервисы делают их создание относительно легкими, и нет никакой законодательной основы для защиты жертв подобных видео.

Reddit, Pornhub, Twitter и другие заняли позицию против них, а исследователи (совсем недавно присоединившееся МО США) продолжают искать способы обнаружения deepfakes. Но, как недавно высказался Эрик Голдман, профессор юридического факультета Университета Санта-Клары и директор Института высоких технологий, лучше всего «приготовиться жить в мире, где нас повсеместно будут окружать и настоящие и поддельные фотографии и видео."
Поделиться публикацией
Комментарии 23
    0
    Ндас… Ситуация из «Бегущего человека» становится не такой уж и фантастической. Иди потом докажи что ты не верблюд!
      +1

      Скоро видео перестанут считать доказательством...


      Но до этого ловкие люди успеют неплохо заработать на менее ловких… странно, что до сих пор не было никаких громких дел, с этим связанных.

        +1
        ну как же не было, во всех громких делах, участники заявляют что это фейк ))
          0
          Нет, просто для видео введут такие же механизмы защиты, как и для других легко изменяемых цифровых данных — например, цифровую подпись.
            0
            И много ли сегодня реально существует ситуаций, где данные, отправленные пользователем куда-то, подписываются его ЭП? Даже при общении с государственными инстанциями это нужно далеко не всегда.

            Такие изменения, как подпись всего потока, дойдут даже до самых дорогих «простых» устройств, не имеющих ОС, в лучшем случае, через несколько лет. А это огромный набор девайсов, которые реально используются по делу: регистраторы, экшн-камеры, фотоаппараты. И даже когда эти изменения дойдут, всё равно в строю останется армия старых устройств без этого функционала. Также, уверен, в бюджетном сегменте никто это с особым рвением внедрять не будет ещё лет пять-десять: или слишком дорого обойдётся модернизация существующих производственных линий, или дешёвые чипы просто не потянут.
              0
              Такие изменения, как подпись всего потока, дойдут даже до самых дорогих «простых» устройств, не имеющих ОС, в лучшем случае, через несколько лет.

              Ну так и фейки станут неотличимыми от реальности не раньше, чем через пару лет.
              Плюс также как развиваются методы генерации фейков, создаются и методы их отличать. Причем с теми же нейросетями. Так что не думаю, что все так печально.
                0
                Ну так и фейки станут неотличимыми от реальности не раньше, чем через пару лет.

                Вот как станут неотличимы, только тогда производители устройств (и то, не все) постепенно начнут задумываться о внедрении средств защиты. Как будто хоть раз кто-то что-то сделал заранее.
                  +1
                  Как будто кирпич, отпущенный с высоты хоть раз улетал вверх. Странно жаловаться на то, что законы поведения общества работают именно так, а не иначе.
                0
                Вот вспоминается Российская НФ-серия «Хроники 33 миров».
                Там проблема решена просто:
                — видео — НЕ доказательство.
                — исключение — видео, снятое устройством, сертифицированным как «полицейский видеорегистратор».
                Оные регистраторы существуют в куче разных версий, сама полиция обычно использует достаточно большие (и дешевые) версии. Частники иногда используют дорогие маленькие устройства. Сам регистратор — защищен от вскрытия и вмешательства.
              +1
              Видео будет доказательством до тех пор пока кто-то не использует для своей защиты данную технологию.
              Допустим тоже самое видео которое использует обвинение, защита подправить убийцу… Вот тогда и начнется…
                0
                Уже.
                +1
                Уточнение: это перевод, оригинал статьи вот здесь
                Немного накосячил при оформлении.
                  0
                  ИИ, который накладывает лицо одного человека на тело другого, использовали для замены Харрисона Форда на Николаса Кейджа в бесчисленных видеоклипах <...>

                  Я не сразу понял, о чем идет речь, пока не заглянул в оригинал:
                  Videos generated with artificial intelligence (AI) that learn to superimpose the face of one person onto the body of another have been used to swap Harrison Ford for Nicolas Cage in countless movie clips <...>

                  Movie clips — это отрывки из кинофильмов. Надо было сохранить ссылку на YouTube:
                  Nick Cage DeepFakes Movie Compilation — YouTube
                    0
                    Верно, со ссылкой было бы понятнее.
                    0
                    Скоро можно будет подделать заявления любого политика. Значит вызвать войну или волнения можно будет по прихоти любого человека имеющего на то средства.
                      +6
                      Есть одна проблема. Заявления публичных политиков сейчас как-то слабо коррелируют с тем, что происходит.
                        0
                        И не только политика — можно копромат на любого сделать. Пока там разберутся, пока опровергнут — волна уже пойдет
                          0
                          Уж как пару лет можно. Что-то не было слышно ни одного громкого инцидента, хотя наверняка были случаи провокации.
                          +1
                          Не будет ничего революционного. С точки зрения пользователя это не более чем «фотошоп для видео». К монтажу фотографий все давно привыкли, и практика по ним сложилась – в том числе экспертизы подлинности. Теперь это перейдёт на видео, только и всего.
                            0
                            Видео все же убедительнее смотрится, люди в него больше верят.
                            Со временем, конечно, привыкнут, что и видео доверять нельзя. Однако, самое интересно открывется в плане кино: этож сколько новых фильмов можно наделать с уже ушедшими актерами, или вместо подражания историческому персонажу — сгенерить его самого.
                              0
                              этож сколько новых фильмов можно наделать с уже ушедшими актерами
                              Их уже делают. Питеру Кушингу продолжить свою актёрскую карьеру в последних «Звёздных Войнах» не помешала даже собственная смерть :)
                              image
                                0

                                Реквестую римейк «Гостьи из будущего» с оригинальной Наташей Гусевой Алисой Селезнёвой!

                                  0
                                  Да уж, представляю что сегодня снимут. Простоквашино недавно пересняли. Лучше не трогать классику грязными руками.

                          Только полноправные пользователи могут оставлять комментарии. Войдите, пожалуйста.

                          Самое читаемое