В Индии накануне выборов в Законодательное собрание Дели в WhatsApp распространили два видео президента Партии Бхаратия Джаната (БДП) Маноджа Тивари, который критиковал действующее правительство Дели Арвинда Кейривала. На первом видео Тивари говорил по-английски, а на втором — на хинди на диалекте хариани.
«[Кейривал] обманул нас своими обещаниями. Но теперь у Дели есть шанс изменить все это», —заявил политик.
Однако в оригинальном видео речь Тивари была другой:
Выяснилось, что БДП в Дели заключила партнерское соглашение с фирмой политических коммуникаций The Ideaz Factory для создания «позитивной кампании» с использованием дипфейков для охвата различных языковых групп избирателей. «Технология Deepfake помогла нам как никогда масштабировать кампанию. Видео позволяет нам убедительно приблизиться к целевой аудитории, даже если кандидат не говорит на языке избирателя», — рассказывает Vice Нилкант Бакши, со-руководитель направления социальных сетей и информационных технологий в БДП.
Видео Тивари широко использовалось, чтобы отговорить большое число рабочих-мигрантов в Дели, говорящих на диалекте хариани, голосовать за конкурирующую политическую партию. Дипфейки распространили среди 5800 групп WhatsApp в Дели, охватив примерно 15 млн человек.
В оригинале Тивари сидит на фоне зеленой стены перед камерой. Его речь заранее согласовали с партией для создания видео. Тонкость заключается в том, что производитель для видео менял движения губ Тивари. «Мы использовали алгоритм «фальшивой синхронизации по губам» и обучили его по речам Маноджа Тивари», — говорит Сагар Вишной, главный стратег в The Ideaz Factory. Фирма наняла дублирующего художника, читающего сценарий, чтобы заменить Тивари.
Бакши из БДП говорит, что реакция на эти видео была обнадеживающей. «Домохозяйки в группе сказали, что им было радостно наблюдать, как наш лидер говорит на их языке», — сказал он.
После первого ролика партия выпустила второе видео, на котором Тивари говорит уже по-английски, предназначенное для «городских избирателей Дели».
В Vice поделились видео с исследователями из Рочестерского технологического института (RIT) в Нью-Йорке, которые считают, что это действительно был дипфейк. Ideaz Factory отказался делиться дополнительной информацией об используемой технологии, но Саниат Джавид Сохраварди из RIT говорит, что «судя по срокам их работы, они использовали код vid2vid от Nvidia». Единственный другой хорошо известный алгоритм для решения этой задачи — это face2face, приложение, которое использовалось для создания фальшивого видео с участием Барака Обамы.
Однако некоторые зрители все же заметили в видео Тивари небольшую аномалию движений рта. Вишной признал, что у фирмы пока нет технологий генерирования голоса. Но у нее есть планы по масштабированию «позитивной» фальшивой кампании Тивари до предстоящих выборов.
Пратик Синха, основатель AltNews, индийского веб-сайта, который проверяет заявления и утверждения, сделанные в социальных сетях, не смог определить, что видео Тивари было подделкой: «Это опасно. Впервые я увидел что-то подобное в Индии». Однако Синха считает, что запрет поддельных видеороликов с участием политиков по примеру США не будет работать в Индии, где кампании начнут обслуживать теневые фирмы.
См. также: «Исследование показало, что 96% дипфейков в интернете — это порно с известными женщинами или бывшими подругами
Вишной считает, что должна быть развернута государственная политика в отношении дезинформации в целом, а путь противодействия негативному мошенничеству заключается в проведении информационных кампаний.
В настоящее время гиганты Кремниевой долины разрабатывают технологии, направленные на борьбу с дипфейками. Так, в сентябре Facebook совместно с Microsoft и коалицией «Партнёрства по искусственному интеллекту во благо людей и общества», а также научными работниками из нескольких университетов объявили конкурс на разработку технологии распознавания дипфейков. А Google в сотрудничестве с компанией Jigsaw (бывшей Google Ideas) уже выпустила датасет, в который вошло более трех тысяч таких видео.
Между тем в Китае любую публикацию заведомо ложной информации, в том числе дипфейков, сделали уголовным преступлением. Закон вступил в силу 1 января. Согласно новым нормам, все дипфейки нужно будет отмечать специальной пометкой, которая будет предупреждать пользователей о том, что это ненастоящая новость.
См. также: