Управление перспективных исследовательских проектов Министерства обороны США (DARPA) ищет средства для быстрого обнаружения deepfake в условиях «растущей угрозы крупномасштабных дезинформационных атак».
На прошлой неделе Управление объявило о том, что 28 августа проведёт день соискателей. Цель мероприятия — дать больше информации о программе Semantic Forensics (SemaFor). Программа, по словам DARPA, будет разрабатывать способы обхода некоторых слабых сторон современных deepfake-инструментов.
«Методы обнаружения, которые использовались раньше, часто можно обмануть из-за их ограниченных ресурсов, — говорится в объявлении DARPA. — Однако существующие алгоритмы автоматического генерирования и манипулирования мультимедиа в значительной степени подвержены семантическим ошибкам».
Под «семантическими ошибками» специалисты Управления имеют в виду ситуации, когда в искусственно сгенерированных изображениях допускаются просчёты — например, когда у человека с искусственно сделанным лицом оказываются «несоответствующие серьги» или другие неправильные детали.
«Эти семантические неудачи дают возможность получить преимущество», — говорится в сообщении Управления.
Предварительный график дня соискателей включает в себя брифинги ряда должностных лиц DARPA с учётом выделенного времени для вопросов и ответов участников. Для участия в мероприятии нужна предварительная регистрация.
Это объявление — не первая попытка DARPA нанести удар технологии deepfake. С 2016 года в агентстве работает команда Media Forensics (MediFor), занимающаяся разработками в этой области. Цель работы команды заключается в том, чтобы «выровнять ситуацию на игровом поле цифровых изображений, которая в настоящее время благоприятна для манипуляций, путем разработки технологий автоматизированной оценки изображений или видео». Программа стартовала в 2016 году и будет финансироваться до 2020 года. Дэвид Доерманн, руководитель программы MediFor, заявил NBC News, что после 2020 года команда надеется работать с компаниями Кремниевой долины над интеграцией инструмента непосредственно на своих платформах.
Всего же за последние два года Управление потратило $68 миллионов на разработки, призванные обнаруживать deepfake.