Губернатор Калифорнии Гэвин Ньюсом подписал два законопроекта, касающихся дипфейков. Первый делает незаконным размещение любых видео с манипуляциями в политических целях — например, замена лица или речи кандидата для его дискредитации. Другой позволит жителям штата подать в суд на любого, кто использует дипфейк в порнографическом видео.
Дипфейки могут быть забавными, однако некоторые могут принести ощутимый вред. Например, дипфейк-видео со спикером палаты представителей конгресса США Нэнси Пелоси, на котором была изменена её речь. Создавалось впечатление, что политик была пьяна и едва выговаривала свои слова. Видео было опубликовано на Facebook, и компания не согласилась удалить его сразу, заявив, что вместо этого разместит статью-опровержение, в которой будет подчеркиваться факт редактирования речи.
Представитель Ассамблеи Калифорнии Марк Берман, который является автором упомянутых двух законопроектов, утверждает, что видеоролики, созданные с помощью технологии Deepfake, в которых к тому же фигурируют политики, могут обмануть общественность и повлиять на результаты выборов.
«Избиратели имеют право знать, когда видео, аудио и изображения, которые им показывают, искусственно созданы для того, чтобы повлиять на то, кому они отдадут свой голос на предстоящих выборах. Они имеют право знать, что такие видео манипулируют ими и не имеют ничего общего с реальностью, — сказал Берман в пресс-релизе. — В контексте выборов способность приписывать кандидату лживые речи или поступки, которых никогда не было, превращают дипфейки в мощный и опасный новый инструмент в арсенале тех, кто хочет вести дезинформационные кампании, чтобы сбить с толку избирателей».
Американский союз гражданских свобод, однако, не согласился с законопроектами.
«Несмотря на благие намерения автора, эти законопроекты не решат проблему обманных политических видеороликов, — говорится в письме, которое члены союза направили губернатору Ньюсому. — Это приведет только к замешательству избирателей, затяжным судебным процессам и подавлению свободы слова».
Тем не менее, не политические ролики занимают лидирующую позицию среди всей массы видео, созданных с помощью искусственного интеллекта. Нидерландская компания Deeptrace, которая специализируется на кибербезопасности и распознавании дипфейков, опубликовала отчёт, в соответствии с которым 96% поддельных видеороликов, созданных с помощью технологии дипфейк, относится к категории порно. Такие ролики набирают рекордное количество просмотров.
В отчете, опубликованном Deeptrace, сообщается, что с декабря 2018 года в интернете было обнаружено более 14 678 поддельных порновидео, что вдвое больше, чем в прошлом году. Reddit начал борьбу с размещением на сайте ссылок на дипфейки после того как команда Deeptrace обнаружила более 20 групп, распространявших запрещенный контент, которые насчитывали сотни тысяч участников.
В сентябре объявлялось, что в США на стадии разработки находятся четыре законопроекта, касающихся дипфейков. Если они будут приняты, подобные видео обяжут маркировать — указывать, что это фейк, и называть его создателей. Это позволит правительству налагать штрафы на лиц, распространяющих вредный контент, созданный с использованием ИИ.
Коммерческие компании также не остаются в стороне в вопросе борьбы с дипфейками. В конце сентября Google в сотрудничестве с компанией Jigsaw (бывшей Google Ideas) выпустила обширный датасет дипфейков, в который вошло более трех тысяч видеороликов, созданных с помощью искусственного интеллекта. Видеоролики исследователи добавили в другой большой проект, посвященный подмене лиц на видео, — FaceForensics++.
«Как часть теста FaceForensics этот набор данных теперь доступен бесплатно для для использования при разработке методов обнаружения искусственно созданных видео», — отметили в Google.