Comments 4
Напоминает новости про "пижаму-невидимку" для ИИ-камер, которая в итоге оказалась бесполезной. Вот и эта "защита" наверняка будет работать до тех пор, пока голосовые модели не переобучат на сответсвующих искаженных данных.
Ну грим против распознавания лица работает хорошо, насколько я знаю. Другое дело, что от камер-то ты спрятался, а внимание живых людей привлёк.
Если для человека голос после обработки алгоритмом не изменяется, значит его звучание можно считать микрофоном и использовать этот образец? Чем будет отличаться копия? Отсутствием цифровых искажений. Как еще можно их убрать? Прогнать через кодеки, которые затрут изменения, сделанные алгоритмом или через другую обработку, направленную конкретно против этого алгоритма... в общем, придумана временная защита
Представлен алгоритм AntiFake для защиты голоса от создания дипфейков