Как стать автором
Обновить

В McAfee преобразовали фото так, что система распознавания лиц приняла одного человека за другого

Время на прочтение2 мин
Количество просмотров5.4K
image

Команда из McAfee, занимающейся кибербезопасностью, организовала атаку на систему распознавания лиц, аналогичную тем, которые в настоящее время используются в аэропортах для проверки паспортов. Используя машинное обучение, исследователи создали изображение, которое выглядело как человек с оригинального снимка. Однако алгоритм не смог идентифицировать личность, приняв данное изображение за снимок другого человека.

Чтобы ввести систему в заблуждение, исследователи использовали алгоритм преобразования изображений, известный как CycleGAN, который переводит фотографии из одного стиля в другой. Например, он может превратить фотографию гавани в рисунок стиля Моне или заменить летнее фото гор на зимнее.


Команда McAfee использовала 1500 фотографий. Их загрузили в CycleGAN, чтобы преобразовать друг в друга. В то же время алгоритм задействовали, чтобы проверить новые изображения на распознаваемость. После создания сотен снимков CycleGAN выдал поддельное изображение, которое выглядело как человек А, но алгоритм решил, что это был человек Б.

image

Исследователи отметили, что они не имели доступа к реальной системе, которую используют аэропорты для идентификации пассажиров, и вместо этого использовали новейший алгоритм с открытым исходным кодом. Однако они полагают, что, если злоумышленники получат доступ к целевой системе, то эта атака сработает даже в аэропорту.




Ранее команда Чикагского университета выпустила Fawkes — инструмент, предназначенный для «маскировки» лиц, который слегка меняет снимок в социальных сетях, чтобы обмануть системы искусственного интеллекта. Исследователи из компании Kneron также показали, как маски могут обмануть системы распознавания лиц, используемые во всем мире. Исследование Национального института стандартов и технологий США (NIST) показало, что маски для лица, которые люди используют в период COVID-19, также создают препятствия для работы алгоритмов. Частота ошибок некоторых из 89 наиболее широко используемых систем выросла на 5-50%. В обычной ситуации этот показатель не превышал 0,3%.

Исследователи McAfee заявляют, что их цель в конечном итоге — продемонстрировать уязвимости, присущие этим системам ИИ: «Искусственный интеллект и распознавание лиц — невероятно мощные инструменты, помогающие в процессе идентификации и авторизации людей. Но когда вы просто берете их и слепо заменяете существующую человеческую систему, без какой-либо дополнительной проверки, то новая схема может иметь даже больше уязвимостей, чем раньше».
См. также:

Теги:
Хабы:
Всего голосов 10: ↑10 и ↓0+10
Комментарии7

Другие новости

Истории

Работа

Ближайшие события

27 августа – 7 октября
Премия digital-кейсов «Проксима»
МоскваОнлайн
20 – 22 сентября
BCI Hack Moscow
Москва
24 сентября
Конференция Fin.Bot 2024
МоскваОнлайн
24 сентября
Astra DevConf 2024
МоскваОнлайн
25 сентября
Конференция Yandex Scale 2024
МоскваОнлайн
28 – 29 сентября
Конференция E-CODE
МоскваОнлайн
28 сентября – 5 октября
О! Хакатон
Онлайн
30 сентября – 1 октября
Конференция фронтенд-разработчиков FrontendConf 2024
МоскваОнлайн
3 – 18 октября
Kokoc Hackathon 2024
Онлайн
7 – 8 ноября
Конференция byteoilgas_conf 2024
МоскваОнлайн