Как стать автором
Поиск
Написать публикацию
Обновить
562.28
OTUS
Развиваем технологии, обучая их создателей

Новый инструмент, помогающий азиатским новостным агентствам выявлять фейковые изображения

Время на прочтение4 мин
Количество просмотров1.7K
Автор оригинала: Irene Jay Liu
Всем привет. Сегодня делимся с вами переводом статьи, который был подготовлен в преддверии старта нового курса от OTUS — «Компьютерное зрение».




Журналисты и фактчекеры сталкиваются с огромными трудностями при отделении достоверной информации от быстро распространяющейся дезинформации. И это относится не только к текстам, которые мы читаем. Виральные изображения и мемы заполняют наши ленты новостей и чаты, и зачастую они искажают контекст или являются фейками. В Азии, где пользователей социальных сетей в восемь раз больше, чем в Северной Америке, масштаб проблемы намного серьезнее.

Существуют инструменты, которые азиатские журналисты могут использовать для определения происхождения и оценки достоверности новостных изображений, но они относительно старые, ненадежные и по большей части доступны только для настольных компьютеров. Это является препятствием для фактчекеров и журналистов в странах, где большинство людей подключаются к Интернету с помощью своего мобильного телефона.

В течении последних двух лет Google News Initiative работала в сотрудничестве с журналистами над технологией идентифицирования обработанных изображений. В 2018 году на саммите Trusted Media в Сингапуре группа экспертов из Google, Storyful и широкого круга представителей индустрии новостей объединила усилия для разработки нового инструмента, оптимизированного для мобильных устройств и использующего наработки искусственного интеллекта. При поддержке Google News Initiative, GNI Cloud Program и инженеров-добровольцев из Google полученный тогда прототип превратился в приложение под названием Source, powered by Storyful.

Теперь же, когда приложение уже используется журналистами по всему региону, мы попросили Имонна Кеннеди, директора по продуктам Storyful, рассказать нам о нем немного больше.

В чем Storyful видит проблемы, с которыми сталкиваются журналисты и фактчекеры во всем мире и в частности в Азии?

[Имонн Кеннеди] Публикация в социальной сети часто является следствием эмоционального импульса, а не полноценного рационального анализа. Любой может поделиться историей с тысячами других людей еще до того, как он или она закончит читать изложенное. Злоумышленники знают это и делают ставку на эмоции людей. Они хотят злоупотреблять свободным доступом к социальным платформам и загрязнять разговоры ложными фактами и рассказами, в том числе и экстремистского толка. Для лиц, проверяющих факты, это означает, что любая беседа уязвима для лжи и манипуляций из любой точки мира в любое время.

Не могли бы вы рассказать нам немного о процессе разработки Source и о том, как AI помог справиться с некоторыми из задач?

[ИК] В Storyful, мы наблюдаем, как старые, неточные или обработанные изображения расшариваются чтобы продвинуть вводящее в заблуждение повествование в больших и малых новостных циклах.

Обычный для журналистов способ решить эту проблему — использовать обратный поиск изображений, чтобы доказать, что изображение старое и использовалось повторно, но у него есть пара проблем. Во-первых, эти вторично переработанные изображения часто подделывают — журналист должен иметь возможность идентифицировать манипуляции с изображением, чтобы у него было больше шансов найти оригинал. Во-вторых, результаты поиска упорядочены по дате с новыми результатами вначале выборки, в то время как журналисты, как правило, интересуются старыми результатами, что в итоге подразумевает длительную прокрутку для того, чтобы найти оригинал.

Source использует технологию Google's AI, чтобы предоставить мгновенный доступ к публичной истории изображения, позволяя вам сортировать, анализировать и понимать его происхождение, включая любые манипуляции. Одно это уже достаточно полезно, но мы идем еще дальше. Source также помогает обнаруживать и переводить текст в изображениях, что особенно полезно для журналистов, каталогизирующих или анализирующих мемы в Интернете.



Приложение Source улучшает способность журналистов проверять происхождение или подлинность конкретного изображения, отслеживать источник и эволюцию мемов.


Как ньюсрумы используют Source и каковы планы на 2020 год?
[ИК] На данный момент приложение использовали 130 человек из 17 разных стран для проверки происхождения изображений в социальных сетях, приложениях для обмена сообщениями и новостных сайтах. Особенно приятно видеть, что 30 процентов пользователей Source получают доступ к сайту со своего мобильного телефона, и что наша самая большая база пользователей находится в Индии, где члены Ассоциации издателей цифровых новостей — коалиции ведущих медийных компаний, занимающихся борьбой с дезинформацией — предоставляют нам важную обратную связь.

Заглядывая наперед, мы прислушиваемся к фактчекерам, когда думаем о том, какой будет следующая версия приложения. Мы знаем, что Source использовался, например, для исследования кадров из видео, что показывает нам потенциал развития приложения для работы не только с текстом или изображениями. Конечная цель заключается в создании «набора инструментов» из общедоступных ресурсов для проверки фактов, с Source в центре, используя Google AI для помощи журналистам по всему миру.




На этом перевод подошел к концу, но мы попросили прокомментировать статью руководителя курса — Артура Кадурина:
Одна из современных “горячих” тем в области компьютерного зрения, “Adversarial attacks” — методы “обмана” современных алгоритмов распознавания и обработки визуальной информации с помощью новых, специально сконструированных изображений. За последние годы несколько раз получали широкую огласку приложения обрабатывающие фото и видео особым образом (FaceApp, Deepfake, etc.), один из ключевых вопросов заключается в том, можем ли мы использовать нейронные сети для того, чтобы отличать настоящие изображения от обработанных. Одна из тем курса «Компьютерное Зрение» посвящена этому вопросу, на занятии мы разберем современные подходы и к тому, как правильно определять “обман” с помощью нейронных сетей, и к тому, как их успешно “обманывать”.

Узнать подробнее о курсе
Теги:
Хабы:
Всего голосов 8: ↑5 и ↓3+4
Комментарии1

Публикации

Информация

Сайт
otus.ru
Дата регистрации
Дата основания
Численность
101–200 человек
Местоположение
Россия
Представитель
OTUS