Как стать автором
Обновить

Facebook одобряет рекламу с ложной информацией о коронавирусе из-за нехватки модераторов

Информационная безопасность *Законодательство в IT Социальные сети и сообщества Здоровье
image

Facebook уже не первую неделю заявляет, что активно борется с распространением ложных сведений о COVID-19 не только на основной площадке, но также в Instagram и WhatsApp. Однако издание Consumer Reports провело эксперимент, который подтвердил, что соцсеть пропускает рекламу, содержающую дезинформацию о коронавирусе.

Минутка заботы от НЛО


В мире официально объявлена пандемия COVID-19 — потенциально тяжёлой острой респираторной инфекции, вызываемой коронавирусом SARS-CoV-2 (2019-nCoV). На Хабре много информации по этой теме — всегда помните о том, что она может быть как достоверной/полезной, так и наоборот.

Мы призываем вас критично относиться к любой публикуемой информации


Официальные источники

Если вы проживаете не в России, обратитесь к аналогичным сайтам вашей страны.

Мойте руки, берегите близких, по возможности оставайтесь дома и работайте удалённо.

Читать публикации про: коронавирус | удалённую работу

В одном из недавних интервью NPR Ник Клегг, вице-президент Facebook по глобальным вопросам и коммуникациям, привел два примера того, какие посты не пропускает компания: любое сообщение, в котором людям рекомендуют пить отбеливатель, либо призывы к не соблюдать социальное дистанцирование.

Автор материала решил разместить оба заявления, выдвинутых Клеггом, плюс другую ложную или опасную информацию, в серии из семи платных объявлений. И Facebook пропустил их все. Рекламные объявления оставались запланированными для публикации в течение более недели, но так и не были помечены Facebook как ложные. Затем автор убрал их из очереди на публикацию.

Объявления настраивали в дневное время суток, используя учетную запись в Facebook под вымышленным именем и страницу вымышленной организации «Общество самосохранения».
Одно объявление утверждало, что люди в возрасте до 30 лет «безопасны» и должны ходить в университеты, на работу или на вечеринки, но оно не упоминало коронавирус. Другое объявление же было более прямолинейным: «Коронавирус — это миф».

image

В третьем сообщении людей поощряли игнорировать рекомендации по социальному дистанцированию, потому что они «не имеют никакого значения».

image

И самая скандальная публикация призывала пользователей «оставаться здоровыми, потребляя малые дозы» отбеливателя ежедневно.

Уже после того, как Consumer Reports связался с Facebook, компания отключила аккаунт, который использовался для планирования рекламы. Facebook подтвердил, что все семь созданных объявлений нарушали правила, но не указал, какие именно правила были нарушены.

«Несмотря на то, что мы удалили миллионы объявлений и коммерческих объявлений за нарушение нашей политики, связанной с COVID-19, мы постоянно работаем над совершенствованием наших систем защиты, чтобы предотвратить распространение вредоносной дезинформации, связанной с чрезвычайной ситуацией», — заявил представитель Facebook Девон Кернс.

В отличии от поста, который публикует обычный пользователь и который могут проверить только при особых обстоятельствах, Facebook просматривает платные объявления, прежде чем разрешить их публикацию. Это связано с рекламной политикой Facebook, которая охватывает более двух десятков категорий: от дезинформации до рекламы табачных изделий и нарушения авторских прав. Кроме того, компания опубликовала специальные правила, касающиеся информации о коронавирусе. К ним относятся запреты на «претензии, которые призваны препятствовать лечению или принятию соответствующих мер предосторожности», «ложное излечение» и другие.

Основная система показа рекламы в Facebook автоматизирована. «Модераторы-люди используются в основном для маркировки различных видов контента», — рассказывает компания, которая помогала обучать алгоритмам, принимающий решения о том, какие объявления могут публиковаться.

«Для чего-то такого вопиющего — и связанного с тем, что, по словам Facebook, в настоящее время является его высшим приоритетом — удаление уже после публикации неприемлемо», — говорит Натали Марешал, исследователь из «Ранжирования цифровых прав», некоммерческой организации, которая оценивает технологические компании по таким факторам, как их практика конфиденциальности и модерации контента. — «Они должны быть нацелены на обнаружение 99,99% такого контента до того, как пост поднимется в топ».

Генеральный директор Facebook Марк Цукерберг, похоже, согласен с этим. Во время недавней пресс-конференции он сказал, что к тому времени, когда пользователь помечает вредоносный элемент в Facebook, «множество людей уже подверглось его воздействию, и, если наши системы ИИ смогут распознать его заранее, это будет идеально».

Одним из препятствий на пути реализации рекламной политики Facebook является то, что компания сталкивается с кадровым кризисом. В прошлом месяце Facebook отреагировал на коронавирус, следуя тому же совету по социальному дистанцированию, что и многие другие компании: он вывел из офиса множество рабочих, включая модераторов контента, которые, в основном, работают в подрядных компаниях. Цукерберг сказал, что многие из этих подрядчиков не могут продолжать выполнять свою обычную работу вне офиса, но что компания переводит некоторых штатных сотрудников на модерацию контента.

Представитель Facebook сообщил журналистам, что «несколько тысяч» рецензентов теперь могут работать из дома — гораздо меньше, чем те 15 000 человек, услугами которых пользовались до пандемии.

Кроме того, по словам Цукерберга, компания еще больше, чем обычно, полагается на автоматизацию для проверки как рекламных объявлений, так и публикаций пользователей. Facebook часто говорит, что искусственный интеллект — это будущее модерации контента, но эксперты в области компьютерных наук утверждают, что технология к этому еще не готова.
«Я очень критически отношусь к этому», — заявил Джевин Вест, исследователь дезинформации и специалист по данным, который руководит Центром информированной общественности в Университете Вашингтона. — «Я веду классы по машинному обучению, и мы не находимся в той точке обучения, где можно положиться на автоматизированные средства». В частности, компьютеры могут выдавать ошибки в попытке интерпретировать мемы и преднамеренные попытки обмана.

С другой стороны, по словам Уэста, автоматизированная система должна легко помечать объявление, содержащее такие слова, как «коронавирус», «COVID-19» или «пандемия», для просмотра человеком-модератором. Просто компании потребуется больше персонала.

Единственное объявление в эксперименте, которое отклонил Facebook, было помечено из-за изображения: серийный снимок маски в стиле респиратора. Это говорит о том, что Facebook использует распознавание изображений, чтобы отмечать посты, которые нарушают его недавно установленную политику в отношении продажи масок для лица. Но, когда автор поменял эту фотографию на другую очень похожую, Facebook одобрил ее.

Также автоматическая система упустила тот момент, что страница общества была создана всего неделю назад, то есть, организация не было признанным рекламодателем. Не насторожило соцсеть и оформление страницы, полностью посвященное коронавирусу.

Эксперты отмечают, что компания, похоже, усердно работает, чтобы распространять полезную информацию о пандемии. Например, активно продвигаются авторитетные источники по запросам «коронавирус» или «COVID-19».

Тем не менее, исследователи и защитники прав потребителей говорят, что компания должна добиться большего успеха, когда речь идет о рекламе.

«Редакционный надзор и курирование повысят цену рекламы в целом», — говорит Джоан Донован, лектор Гарварда и исследователь дезинформации. — «Но ущерб, нанесенный непроверенной информацией, может быть смертельным».

Кроме того, проблему видят в том, что пользователи в принципе склонны доверять рекламе, как информации, поступившей от подлинного источника и уже проверенной соцсетью.

Эксперты считают, что в этой ситуации Facebook может и замедлить свой рекламный конвейер ради более качественной ручной модерации.

Исследователи уже несколько лет пытаются проверить подотчетность и прозрачность рекламы в Facebook. Даже маркетологи, которые работают только с настройками рекламных кампаний в Facebook, говорят, что система капризная и трудная для понимания, сравнивая ее с лабиринтом.
«Когда у вас есть платформы, которые в основном такие же мощные, как и правительства, и которые играют важную роль в управлении потоком критической информации по вопросам, представляющим общественный интерес, прозрачность имеет решающее значение», — заключает профессор права Ханна Блох-Вехба из Университета Дрекселя.

Более раннее исследование сотрудников Массачусетского технологического института уже показало, что, после того как Facebook ввела отметки для возможно фальшивых сообщений, доверие пользователей к непомеченным постам и новостям выросло. Исследователи назвали это явление «подразумеваемым эффектом истины». В том случае, когда не использовались истинные или ложные ярлыки, люди рассматривали возможность делиться 29,8% всех ложных историй, но когда ложные истории были помечены как ложные, люди были готовы репостнуть только 16,1% из них. Однако при этом число участников, которые были готовы делиться немаркированными, но ложными историями, составило 36,2%.
См. также:

Теги: facebookcovid-19рекламамодерация объявленийискусственный интеллектдезинформация
Хабы: Информационная безопасность Законодательство в IT Социальные сети и сообщества Здоровье
Всего голосов 11: ↑10 и ↓1 +9
Комментарии 8
Комментарии Комментарии 8

Похожие публикации

Лучшие публикации за сутки