Искусственный интеллект, т.е. слабая его форма, дает человечеству большое количество благ, включая экономические, научные, социальные и все прочие. Но есть у ИИ обратная сторона — это дипфейки и все, что с ними связано.
Уже сейчас достаточно высококачественных подделок — якобы реальных видеозаписей политиков, актеров и других знаменитостей. Пока что специалисты могут отличить дипфейк от настоящего видео, но не за горами время, когда это может стать невозможным.
В чем опасность?
Еще в июле 2019 года компания Symantec обнаружила несколько случаев масштабного обмана злоумышленниками представителей крупного бизнеса. Аферы по созданию аудиодипфейков стоили компаниям-жертвам многие миллионы долларов. Во всех случаях подделки заключались в копировании голоса руководителя компании, который говорил сотруднику перевести деньги на определенный счет.
Что касается видео, то ролики все еще не очень реальны. Да, непосвященный в технологии создания дипфейков человек может и не отличить подделку. Но специалист это способен сделать без труда. Но это видео, а вот аудио представляет собой серьезную проблему — подделку можно выявить лишь после серьезного анализа. И то, всегда будет существовать вероятность, что «оригинал» все же является подделкой. Уже через годик-другой и анализ не поможет.
Как это работает?
Дипфейки чаще всего базируются на технологиях глубокого обучения, включая генеративно-состязательные сети (GAN). В этом случае GAN представлена двумя конкурирующими нейронными сетями. Они как бы играют, соперничая друг с другом, что приводит к созданию все более качественного синтезированного аудио.
Используется эта технология и в обработке изображений. Так, GAN, предназначенная для создания поддельных фотографий, cостоит из двух интегрированных глубоких нейронных сетей. Первая сеть, называемая «генератором», генерирует изображения. Вторая сеть, обученная на наборе данных, состоящем из реальных фотографий, называется «дискриминатором».
Такой «союз» приводит к созданию удивительно реалистичных изображений. Попробуйте ввести запрос «поддельные лица GAN» и вы сразу поймете, что мы здесь обсуждаем. При этом изображения, по большей части — генерированные с нуля, на них изображены несуществующие люди.
GAN могут использоваться и для обучения автопилота машины, либо же для создания очень надежных систем распознавания лиц.
А еще GAN могут использоваться для генерации голоса для людей, которые утеряли возможность говорить. Ну, либо людей, которых уже нет с нами. Это делается уже сейчас — для ряда здравствующих знаменитостей с проблемами голоса синтезирован аналог, максимально приближенный к их собственному голосу.
Так в чем опасность?
Объяснение уже давалось выше, с примером про обман компаний. Можно и наложить лицо политика на лицо человека-актера, который выполняет какие-то предосудительные действия или говорит что-то из ряда вон выходящее. Накануне выборов — отличный способ снизить рейтинг.
Эти технологии активно используются. В 2019 оду, например, в сети было не менее 15 000 дипфейков, что на 84% больше, чем в 2018 году. Правда, тогда по большей части выкладывались дипфейки категории ХХХ. Сейчас же ситуация постепенно меняется, это уже далеко не безобидные шутки.
Достаточно реалистично выглядящий дипфейк может в буквальном смысле слова изменить ход истории. Такие инструменты могут оказаться в руках очень недобросовестных людей. Хотя, зачем добросовестному человеку, если он не создает контент для фильмов или мультиков/рекламы, подобные вещи?
А вот для мошенников все это — просто золотое дно. Помимо компрометирующих роликов и записей голоса, дипфейки могут использоваться для шантажа, финансового или страхового мошенничества, манипуляций на фондовом рынке. Выше уже упоминался вариант с понижением рейтинга политика. Но таким же образом можно обрушить курс акций какой-либо компании.
Для судебной системы дипфейки — просто страшный сон. Если не будет надежного способа отличить выдумку от реальности, доказательства, предоставляемые в суде, можно будет просто выбросить. Для того, чтобы этого избежать, уже сейчас появляется ПО, которое выполняет роль своеобразного антивируса — оно идентифицирует дипфейки. В будущем такого софта будет больше.
Насколько серьезна эта проблема?
Создатель GAN утверждает, что вряд ли можно узнать настоящее или поддельное изображение, если просто на него посмотреть. Придется использовать механизмы аутентификации оригинальных фото и видео — что-то вроде вотермарок.
Вполне может быть, что в ближайшем будущем камеры и мобильные телефоны станут вставлять собственную цифровую подпись в контент. Стартап Truepic уже предлагает для этого технологию — и клиенты у компании из крупных страховых компаний довольны.
Но если дипфейки выйдут на новый уровень, отличить их будет невозможно от оригинала. В этом случае мы попадем в условия новой реальности — где все, что видим и слышим, может оказаться иллюзией. Собственно, все это может оказаться угрозой как социальному порядку, структуре, так и экономической системе.
Риски весьма велики, так что их стоит учитывать в будущем, разрабатывая новые ИИ-технологии. Как это сделать — второй вопрос. Может быть, разработать законодательную базу, или создать какую-то новую технологию. Но делать это нужно уже сейчас, до того, как появится по-настоящему серьезная проблема.