В 2004 году вышел фильм «Я, робот», который оброс мемами. Один из ключевых эпизодов картины — сцена, где робота спрашивают, может ли он написать симфонию или создать какой-либо шедевр. Робот отвечает: «А вы?» Сегодня искусственный интеллект рисует обложки для журналов, сочиняет музыку, пишет книги. Что вообще происходит? Предлагаю обсудить, как изменится деятельность разработчиков ПО в ближайшие годы в связи с широким распространением ИИ.
Пользователь
Риски безопасности ИИ на практике: разбор конкурса AI CTF на PHDays 11
Уже традиционно в рамках PHDays мы организовали AI CTF — соревнование в формате capture the flag, затрагивающее риски безопасности систем ИИ. Что было интересного в этом году, расскажем ниже в посте.
Но сейчас немного истории:
AI CTF 2019: habr.com/ru/company/pt/blog/454206/
AI CTF 2021: habr.com/ru/company/pt/blog/560474/
Сломать ИИ: разбор заданий AI CTF на PHDays 10
Продолжая развивать тему безопасности и рисков AI, в рамках конференции мы собрали трек с докладами и CTF-соревнование для безопасников, затрагивающее риски AI. В этой статье расскажем про соревнование: какие задания были и как все прошло.
AI CTF проходит не первый раз, прошлое описание формата и заданий в прошлой статье.
PHDays 9: разбор заданий AI CTF
В общем-то мы сделали task-based CTF, с заданиями затрагивающих часть рисков безопасности применения техник машинного обучения.
Безопасность машинного обучения: эффективные методы защиты или новые угрозы?
Одними из самых популярных и обсуждаемых новостей последние несколько лет являются — кто куда добавил искусственный интеллект и какие хакеры что и где сломали. Соединив эти темы, появляются очень интересные исследования, и на хабре уже было несколько статей посвященных тому, что есть возможность обманывать модели машинного обучения, к примеру: статья про ограничения глубокого обучения, про то как омбанывать нейронные сети. Далее хотелось бы рассмотреть подробней эту тему с точки зрения компьютерной безопасности: