Comments 9
О чём эта статья? Зачем это на хабре? Выглядит как текст скопированный из произвольной взятой газеты....
Да по моему уже есть системы, способные в частности "говорить" голосом Путина. VeraVoise например. Вообще вся эта индустрия дипфейков вызывает только тревогу, риск нелегитимного применения достаточно велик, при этом порог входа снижается. В соцсетях и мессенджерах очень часто можно встретить переозвученные ролики самого разного качества, часто их используют для некорректной рекламы, например выступления деятелей науки, обычно медицины, с переозвучкой и заменой задника в целях мошенничества. Обычно такая реклама нацелена на пожилых и в целом на доверчивый контингент, поэтому с губами или не заморачиваются или скрывают их простым блюрингом всей картинки. Но например для манипуляций общественным мнением можно заморочится и с Lip sync, оно того стоит :).
Вывод: образцы голоса и изображения лица не могут быть средством аутентификации пользователей в банковской сфере и т.д.
Очередная статья от копирайтера на Хабре. Мы на эту тему написали в разделе нашей недавней статьи про синтез речи, искать по "Существует ли массовая опасность со стороны "ИИ".
TLDR — для массового пользователя атака будет скорее всего "тупая" просто по предзаписанным фразам другого человека (пример — разводят бабушку якобы сын просит перевести деньги, попал в беду, запись голоса не сына, а какого-то левого чувака.
Но разовую дорогостоющую диверсию, если есть "много денег", провести вполне реально даже по качественной записи 1 телефонного разговора.
Ну вот у этих вроде что то получается https://coqui.ai/blog/tts/yourtts-zero-shot-text-synthesis-low-resource-languages
Нейросети могут быть опасными: сгенерированные лица и синтезированные голоса все более реалистичны