Pull to refresh

Видео интервью с победителем Deep Fake Detection Challenge

Reading time1 min
Views2.7K
В прошлом году рядом компаний (Facebook, Google и другие) объявили международный конкурс по выявлению поддельных фотографий и видео записей – Deep Fake Detection Challenge.

Победителем этого конкурса стал наш соотечественник Селим Сефербеков, проживающий сейчас в Минске.

На Youtube опубликовано видео интервью, в котором Селим рассказывает о том что позволило ему победить других участников.

Победа не достаётся легко, особенно если борешься в одиночку.

Нет тренера или коллег, которые смогут поделиться опытом, идеями, наблюдениями.

Салиму пришлось бороться с такими крупными командами, как NTechLab (заняла 3-е место) или ID R&D (заняла восьмое место), решение ID R&D имеет сертификат первого и второго уровня по выявлению обмана лицевой биометрии от лаборатории iBeta (лаборатория iBeta сертифицирована NIST – Национальный институт стандартов и технологий США).
Total votes 20: ↑10 and ↓100
Comments12

AI создал свой первый фильм, и это фильм ужасов

Reading time5 min
Views116K


Искусственный интеллект под руководством инженера из Google самостоятельно сделал первую кинокартину. Не просто сложил части чужих фильмов друг с другом, или выдал буквы сценария, а создал полноценную короткометражку. Сам написал сюжет, сам написал все диалоги, сам выбрал сцены и определил выражения лиц актеров (и даже, судя по всему, сам написал заголовок для показанной в фильме газеты – хотя он получился настолько ироничным, что в это сложно поверить). Озвучка персонажей, музыка и монтаж – естественно, тоже за AI. Но получившаяся черно-белая научная фантастика отнюдь не кажется милой.

Total votes 52: ↑38 and ↓14+24
Comments93

DeepFakes и их влияние на индустрию противодействия мошеничеству

Level of difficultyEasy
Reading time2 min
Views1.3K

Привет!

Сегодня я решил поделиться переводом тренда по "Deepfakes" . 

Данные представлены на основе множества отчетов, и ссылки также будут прилагаться, чтобы все желающие смогли с ними ознакомиться. И так, любимые всеми за последний год буквы "AI" очень сильно поменяли правила игры во многих индустриях. В индустрии мошенничества и противодействия мошенничеству они сыграли также не малую роль и заставили многие компании пересмотреть их процессы.

Читать далее
Total votes 6: ↑3 and ↓30
Comments1

Deepfakes и deep media: Новое поле битвы за безопасность

Reading time7 min
Views6.6K


Эта статья является частью специального выпуска VB. Читайте полную серию здесь: AI and Security.

Количество дипфейков – медиа, которые берут существующее фото, аудио или видео и заменяют личность человека на нем на чужую с помощью ИИ – очень быстро растет. Это вызывает беспокойство не только потому, что такие подделки могут быть использованы, чтобы влиять на мнения людей во время выборов или впутывать кого-то в преступления, но и потому, что ими уже злоупотребляли для создания фейкового порно и обмана директора британской энергетической компании.
Total votes 23: ↑23 and ↓0+23
Comments9

Пользователь Reddit под ником DeepFakes научил нейросети создавать интимные ролики со звездами

Reading time1 min
Views116K

Правило 34


Пользователь Reddit под ником DeepFakes научил нейросети создавать интимные ролики со звездами. Его жертвами уже стали: Эмма Уотсон, Мейси Уильямс, Скарлетт Йоханссон, Галь Гадот.

Для создавая подобных видео были использованы алгоритмы машинного обучения такие как TensorFlow, которые Google бесплатно предоставляет исследователям, аспирантам и всем, кто интересуется машинным обучением, а также материалы из открытого доступа.

С первого взгляда кажется правдоподобным, но на видео наблюдаются артефакты лицо не отслеживается правильно, хотя распознать фэйк не искушенному зрителю будет сложно.

image

Большой брат


Как инструменты Adobe, которые могут заставить людей говорить что-либо, и алгоритм Face2Face, который может подменять лица в режиме реального времени, этот новый тип поддельного видео показывает, что человечество находимся на грани, где легко создать правдоподобные видеоролики о том чего мы никогда не делали.

Читать дальше →
Total votes 56: ↑32 and ↓24+8
Comments63

ИИ научился создавать видео с одного кадра. Старые картины теперь можно сделать живыми

Reading time2 min
Views53K


Технология из Гарри Поттера дошла до наших дней. Теперь для создания полноценного видео человека достаточно одной его картинки или фотографии. Исследователи машинного обучения из «Сколково» и центра Samsung AI из Москвы опубликовали свою работу о создании такой системы, вместе с целым рядом видео знаменитостей и предметов искусства, получивших новую жизнь.

Читать дальше →
Total votes 66: ↑63 and ↓3+60
Comments91

Начальная дипфейкология: как сделать, как распознать (испытано на себе)

Level of difficultyEasy
Reading time13 min
Views9.9K

Вокруг темы дипфейков множество слухов и домыслов. Мы сами стараемся не попасть впросак, когда комментируем для журналистов эту тему. Например. Можно ли подделать голос в телефонном разговоре, то есть налету? (пока нет) Увеличивается ли число мошенничеств с дипфейками? (Достаточной статистики нет, если неаккуратно оценивать ситуацию, можно тысячи процентов насчитать, всё ж пока исчисляется «от плинтуса»). Можно ли создать дипфейк дендрофекальным способом, работая только с тем, что есть в открытом доступе?

А вот тут надо проверять, потому что однозначного ответа без дополнительных «но» нет. В качестве начальных условий поставил такие: можно ли сделать качественный дипфейк (видео и аудио), не особо вникая в вопрос? Результаты под катом.

А еще бонусом, на основе полученных результатов, – разобрал ролик под названием «10 лучших Дипфейк видео». На их примере предлагаю и вам поупражняться в поиске признаков подделки.

Читать далее
Total votes 21: ↑21 and ↓0+21
Comments16

Орегонский университет предлагает бороться с deepfake с помощью мышей

Reading time2 min
Views4.3K


В рамках борьбы с deepfake — видео и аудио, созданных с помощью искусственного интеллекта — исследователи Орегонского университета тестируют одну из самых необычных идей. Группа учёных пытается научить мышей распознавать незаметные для человеческого слуха различия в речи, чтобы затем обучить машину этому механизму распознавания.

Исследователи обучили мышей понимать небольшой набор фонем, которые отличают одно слово от другого. Мышки получали награду каждый раз, когда они правильно идентифицировали звуки, что составило до 80% случаев.

«Мы научили мышей определять разницу между звуками, окруженными разными гласными, в разных контекстах. Мы считаем, что есть возможность обучить мышей распознавать ложную и реальную речь», — рассказал Джонатан Сондерс, один из исследователей проекта, изданию BBC.
Читать дальше →
Total votes 13: ↑11 and ↓2+9
Comments3

Facebook и Microsoft запускают конкурс по обнаружению deepfake

Reading time2 min
Views8.3K


Facebook совместно с Microsoft и коалицией «Партнёрства по искусственному интеллекту во благо людей и общества» (PAI), а также научными работниками из нескольких университетов анонсировала конкурс на разработку технологии распознавания дипфейков (deepfake).

Как сообщается в блоге Facebook, в рамках проекта, который получил название Deepfake Detection Challenge, Facebook поручит исследователям создавать реалистичные дипфейки. После этого участники конкурса будут прорабатывать алгоритмы обнаружения deepfake. Авторы лучших получат гранты. Призовой фонд проекта — $10 миллионов.
Читать дальше →
Total votes 16: ↑15 and ↓1+14
Comments17

Алгоритм DeepPrivacy не позволяет нейросети деанонимизировать людей на фото и видео

Reading time2 min
Views3.9K


Исследователи из Норвежского технологического университета придумали, как использовать технологию DeepFake для сохранения анонимности людей на фото и видео с сохранением исходных данных изображения.

Сохранение собственной конфиденциальности стало важной проблемой. Пока ещё не было найдено подходящего решения для анонимизации человеческих лиц на изображениях без ухудшения качества самого фото. Как правило, для сохранения анонимности лица обычно размывают или закрывают пикселями или чёрным квадратом. Однако это нарушает распределение данных изображения и усложняет дальнейшую его обработку алгоритмами.

Хакон Хуккелас, Рудольф Местер и Фрэнк Линдсет создали систему DeepPrivacy, которая разработана с помощью сразу нескольких нейросетей, используемых для обработки изображений. Сначала изображение обрабатывается нейросетью S3FD, которая определяет, где на фото находится само лицо. Затем в дело вступает нейросеть Mask R-CNN, которая размечает ключевые точки фото человека — глаза, уши, плечи и нос. Этот этап необходим для того, чтобы впоследствии созданное нейросетью новое лицо выглядело максимально реалистично.
Читать дальше →
Total votes 17: ↑16 and ↓1+15
Comments3

ИИ не сможет защитить нас от дипфейков, утверждает новый доклад

Reading time2 min
Views4.7K


Новый доклад Data and Society ставит под сомнение автоматизированные решения для распознавания видео, созданных с помощью машинного обучения. Авторы исследования — Бритт Пэрис и Джоан Донован — утверждают, что дипфейки, хотя и кажутся относительно новым явлением, на самом деле являются частью долгой истории манипулирования средствами массовой информации.

Чтобы изменить ситуацию, необходимы как социальные, так и технические усовершенствования. Доверие к ИИ, по их мнению, может на самом деле усугубить ситуацию, сконцентрировав больше данных и мощности в руках частных корпораций.

«Отношения между СМИ и правдой никогда не были стабильными, — говорится в отчете. — В 1850-х годах, когда суды начали принимать фото в качестве доказательства, люди не доверяли новой технологии и предпочитали свидетельские и письменные показания. К 1990-м годам медиа-компании были замешаны в искажении событий и избирательной редактуре вечерних трансляций».
Читать дальше →
Total votes 12: ↑11 and ↓1+10
Comments26

Калифорния ввела два закона против дипфейков

Reading time3 min
Views6.3K


Губернатор Калифорнии Гэвин Ньюсом подписал два законопроекта, касающихся дипфейков. Первый делает незаконным размещение любых видео с манипуляциями в политических целях — например, замена лица или речи кандидата для его дискредитации. Другой позволит жителям штата подать в суд на любого, кто использует дипфейк в порнографическом видео.

Дипфейки могут быть забавными, однако некоторые могут принести ощутимый вред. Например, дипфейк-видео со спикером палаты представителей конгресса США Нэнси Пелоси, на котором была изменена её речь. Создавалось впечатление, что политик была пьяна и едва выговаривала свои слова. Видео было опубликовано на Facebook, и компания не согласилась удалить его сразу, заявив, что вместо этого разместит статью-опровержение, в которой будет подчеркиваться факт редактирования речи.
Читать дальше →
Total votes 7: ↑7 and ↓0+7
Comments5