Издание The Wall Street Journal, ссылаясь на внутренние документы Facebook, заявляет, что система искусственного интеллекта не способна эффективно выявлять и уничтожать контент, который содержит язык ненависти и чрезмерное насилие. В случае, когда алгоритм не может точно определить, нарушает ли материал правила площадки, он реже показывает пользователям такой контент.

WSJ рассказывает, что ИИ Facebook не может надежно выявлять расистские высказывания, видео шутинга, а также система путает петушиные бои с автокатастрофой. Сотрудники соцсети отмечают, что компания удаляет лишь часть сообщений, которые нарушают правила площадки.
Старший инженер Facebook говорил о том, что у компании нет модели, которая могла бы фиксировать большинство нарушений. При этом руководство компании ранее сократило время рассмотрения жалоб модераторами, а также внесла изменения в правила обращений. Если руководство не сменит стратегию, то в ближайшее время будет выявляться только 10-20 % просматриваемого нежелательного контента, сказано в записке инженера.
Правозащитники и ученые долгое время критиковали Facebook за применение ИИ для поиска запрещенных материалов. Они уверены, что компания никогда не расскажет, как обстоят дела в этом направлении. Однако Facebook заявляет на высоком уровне о крупных расходах на безопасность платформы.
Из отчета известно, что внедрение ИИ для модерирования контента продиктовано желанием Facebook сэкономить на зарплатах сотрудников, которые обходились компании в $ 2 млн еженедельно или $ 104 млн в год. Хотя представитель компании Энди Стоун заявляет, что бюджет остался неизменным.
Сокращение количества жалоб на разжигание ненависти сократилось из-за того, что алгоритмы не усматривали нарушения в сообщениях, которые содержали нарушающие правила высказывания.
Исследователь правозащитной организации Avaaz Фади Коран заявил, что запрашивал у Facebook информацию о количестве нарушений. Компания ответила, что это невозможно, поскольку Facebook сама не располагает данными сведениями. Коран возложил на компанию ответственность за продолжающиеся нарушения на площадке, поскольку она скрывает проблему.
ИИ не может полноценно выявлять выражение ненависти на арабском языке и его диалектах. Аналитик Facebook подчеркивает, что крупные вложения Facebook в алгоритмы ИИ пока не приносят нужного результата.
Facebook удалила пост российского пользователя за наличие в тексте слова «хохлома». Администрация соцсети заявила, что публикация нарушает правила площадки. Алгоритмы ИИ посчитали, что пост разжигает вражду.
В конце сентября тренер футбольного клуба «Ротор» Дмитрий Хохлов обратился в суд из-за неоднократных блокировок сообщений с его фамилией в Facebook и Instagram. Бывший футболист намерен добиться компенсации морального вреда.
На прошлой неделе компания обновила правила площадки, чтобы бороться с травлей. Facebook будет жестче модерировать сообщения, содержащие запугивание, домогательства и преследования пользователей.
Ранее руководство социальной сети начало рассылать пользователям требования принять соглашение для участия в программе Facebook Protect, которая защищает от фейков. Аккаунты отказавшихся включать антифейк будут заблокированы до момента его активации.