Pull to refresh

ИИ не сможет защитить нас от дипфейков, утверждает новый доклад

Reading time2 min
Views4.7K


Новый доклад Data and Society ставит под сомнение автоматизированные решения для распознавания видео, созданных с помощью машинного обучения. Авторы исследования — Бритт Пэрис и Джоан Донован — утверждают, что дипфейки, хотя и кажутся относительно новым явлением, на самом деле являются частью долгой истории манипулирования средствами массовой информации.

Чтобы изменить ситуацию, необходимы как социальные, так и технические усовершенствования. Доверие к ИИ, по их мнению, может на самом деле усугубить ситуацию, сконцентрировав больше данных и мощности в руках частных корпораций.

«Отношения между СМИ и правдой никогда не были стабильными, — говорится в отчете. — В 1850-х годах, когда суды начали принимать фото в качестве доказательства, люди не доверяли новой технологии и предпочитали свидетельские и письменные показания. К 1990-м годам медиа-компании были замешаны в искажении событий и избирательной редактуре вечерних трансляций».

Видеоподделки, как указывают исследователи, существовали задолго до появления дипфейков. Так, способность манипулировать видеодоказательствами была продемонстрирована в 1991 году во время судебного разбирательства в отношении четырех полицейских из Лос-Анджелеса за избиение Родни Кинга за сопротивление полиции. Одним из основных доказательств невиновности полицейских было видео, снятое прохожим. Демонстрация видео присяжным с замедлением в несколько раз показала, что непроизвольные физические реакции Кинга на удары выглядели так, как будто он пытался встать.

«Сегодня технологи спешат бороться с проблемой с помощью исключительно технических решений, включая автоматическое распознавание манипуляций с видео с использованием ИИ. Однако нахождение подделок в истории позволяет нам увидеть, что то, что считается «доказательством», может только навредить».

Проблема дипфейков, уверены исследователи, может решиться только сочетанием технических и социальных методов, включая снижения влияния медиасистем на общественность.

«Более комплексные решения могут заключаться в принятии правительственных мер в отношении корпораций, чтобы побудить их более осмысленно подходить к последствиям их разработок», — уверены авторы доклада.

Кроме того, как указано в докладе, в настоящее время в США на стадии разработки находятся четыре законопроекта, касающихся дипфейков. Если их примут, подобные видео обяжут маркировать — для явного указания, что это фейк, и определения создателей. Это позволит правительству налагать штрафы на лиц, распространяющих вредный контент, созданный с использованием ИИ, считают авторы исследования.

Бобби Чесни, соавтор статьи «Дипфейки: надвигающаяся проблема конфиденциальности», уверен, что остановить распространение дипфейков возможно, а вот уничтожить их — нет.

«Мы должны говорить о смягчении и ограничении вреда, а не о полном устранении этой проблемы, — добавил Чесни. — Дипфейки не исчезнут».
Tags:
Hubs:
+10
Comments26

Other news