3 вариант аутсорсинга модерации, которые вы должны знать
В этой статье мы поговорим о том, какие решения для модерации контента существуют на сегодняшний день. В ходе нашего исследования рынка мы нашли немалое количество компаний, предлагающих свои услуги. Мы попытались их классифицировать, описать их преимущества и недостатки.
Тостер. Коллективное редактирование вопросов

Новая возможность открывает перед нами следующие ошеломительные перспективы.
Построение автоматической системы модерации сообщений

Автоматические системы модерации внедряются в веб-сервисы и приложения, где необходимо обрабатывать большое количество сообщений пользователей. Такие системы позволяют сократить издержки на ручную модерацию, ускорить её и обрабатывать все сообщения пользователей в real-time. В статье поговорим про построение автоматической системы модерации для обработки английского языка с использованием алгоритмов машинного обучения. Обсудим весь пайплайн работы от исследовательских задач и выбора ML алгоритмов до выкатки в продакшен. Посмотрим, где искать готовые датасеты и как собрать данные для задачи самостоятельно.
Модерация текста: уроки этикета от Data Scientist’a
С этой статьи мы начинаем публикацию серии статей про Data Science задачи, которые мы решаем в Центре Развития Финансовых Технологий Россельхозбанка.
В прошлом году Россельхозбанк объявил о создании и развитии экосистемы для предприятий агропромышленного комплекса. Для одной из базовых площадок экосистемы — Своё Фермерство мы решили сделать пару полезных задач, о которых расскажем ниже.

Модерация изображений: уроки этикета от Data Scientist’a, часть 2
Мы продолжаем серию статей про модерацию контента на площадках Центра Развития Финансовых Технологий Россельхозбанка. В прошлой статье мы рассказывали, как решали задачу модерации текста для одной из площадок экосистемы для фермеров “Свое Фермерство”. Почитать немного о самой площадке и о том какой результат мы получили можно здесь.
Если коротко, то нами использовался ансамбль из наивного классификатора (фильтр по словарю) и BERT’a. Тексты, прошедшие фильтр по словарю, пропускались на вход в BERT, где они также проходили проверку.
А мы, совместно с Лабораторией МФТИ, продолжаем улучшать нашу площадку, поставив перед собой более сложную задачу премодерации графической информации. Эта задача оказалась сложнее предыдущей, так как при обработке естественного языка можно обойтись и без применения нейросетевых моделей. С изображениями все сложнее — большинство задач решается с помощью нейронных сетей и подбором их правильной архитектуры. Но и с этой задачей, как нам кажется, мы неплохо справились! А что у нас из этого получилось, читайте далее.

Стриминговая платформа, выкупившая подкаст за $100 млн, продолжает избавляться от его выпусков

Речь, конечно же, о шоу Джо Рогана, и далее мы разберемся в ситуации чуточку подробнее. Всех, кого интересует происходящее в мире подкастинга и аудиоконтента, приглашаем под кат.
ИИ все еще не умеет модерировать хейт-спич

Но ученые научились определять, где система дает сбой.
В далекое прошлое ушли уютные форумы, где люди-модераторы заставляли участников следовать правилам и цивилизованно общаться. Эпоха массовых соцсетей требует иных решений. Сегодня искусственный интеллект учат отделять одну ругань от другой в соответствии с современными представлениями о справедливости. В рамках этой темы хотим поделиться переводом июньской публикации MIT Technology Review о датасете HateCheck.
Надгробья современного геймдева. Идеальная модерация

Сэкономим для Винни-Пуха время: идеальная модерация в многопользовательских видеоиграх не возможна.
Независимо от выбранной цели (и методов), идеальная модерация ОБЯЗАТЕЛЬНО будет наступать на все доступные мозоли либо "бизнесу", либо игрокам, либо бедным замороченным людям, на которых обязанности модераторов будут возложены.
Всё.
А почему так?
Попробуем разобраться с применением длинных слов и абстрактных идей.
Что такое модерация контента? Типы модерации и инструменты

Цифровой мир находится в состоянии постоянного движения, и одной из его мощных движущих сил является генерируемый контент. Сегодня люди охотнее поверят мнению, высказанному другими людьми онлайн, чем информации, предоставляемой компаниями и государственными органами. В этой статье мы расскажем, что такое модерация контента.
Ежедневно публикуются невообразимые объёмы текста, изображений и видео, поэтому компаниям необходимо отслеживать контент, хранящийся на их платформах. Это критически важно для обеспечения безопасной и надёжной среды для клиентов, а также для мониторинга социальных влияний на восприятие брендов и соответствия государственным требованиям.
Наиболее эффективным способом достижения всех этих целей является модерация контента.

Под модерацией контента понимается отсев недопустимого контента, публикуемого пользователями на платформе. Этот процесс включает в себя применение заранее установленных правил мониторинга контента. Если контент не соответствует требованиям, он помечается и удаляется. Причины этого могут быть разными: насилие, оскорбления, экстремизм, нагота, враждебные высказывания, нарушения авторских прав и тому подобное.
Задача модерации контента — обеспечение безопасности платформы и её соответствия политике компании по обеспечению доверия и защиты. Модерация контента широко применяется в социальных сетях, на веб-сайтах и в приложениях для онлайн-знакомств, на торговых площадках, форумах и других подобных платформах.
Роскомнадзор не в состоянии модерировать модерацию новостных сервисов
Глава Роскомнадзора Александр Жаров сообщил о том, что премодерация контента новостных агрегаторов пока невозможна, пишет Rambler News Service. Напомню, что ввести премодерацию такого рода просил ряд депутатов Государственной думы.
«Во-первых, закона еще нет. А во-вторых, модерировать модерацию — это, знаете ли, такая сложненькая задача, у нас функции такой нет. Возникнет — будем думать», — сообщил глава Роскомнадзора.
Исследование Citizen Lab: в Китае используют данные иностранных пользователей для создания цензуры в WeChat

Исследователи из Citizen Lab провели серию экспериментов, которые подтвердили, что китайские власти следят за учетными записями WeChat, зарегистрированными за рубежом. Документы и изображения, которыми обмениваются такие пользователи, подвергают проверке контента и анализу на содержание, которое может цензурироваться внутри Китая. Такие файлы могут затем использовать для обучения алгоритмов и создания системы политической цензуры в китайском сегменте WeChat.
Facebook создала независимый надзорный совет для модерации спорного контента в соцсети FB и Instagram

6 мая 2020 года Facebook представила первых 20 членов независимого надзорного совета по модерации спорного контента одноименной соцсети и сервиса Instagram. Это эксперты в различных отраслях и технологиях, умеющие совместно принимать решения и разбираться в цифровом контенте и правилах безопасности в Интернете.
Facebook согласился выплатить $52 млн модераторам за работу с шок-материалами

Компания Facebook в рамках досудебного урегулирования согласилась выплатить $52 млн по иску модераторов, которые работали с травмирующим контентом. Компенсации получат более 11 тысяч человек. Некоторые из них работают в соцсети по сей день.
«Яндекс.Дзен» будет проверять фейки с помощью российских СМИ

Сервис «Яндекс.Дзен» запустил тест системы проверки фактов в публикациях своих пользователей. К работе привлекли партнеров, в частности, такие СМИ, как ТАСС, «Интерфакс» и The Bell. В проекте также участвует Высшая школа экономики.
На Facebook запретили отрицание Холокоста

Социальная сеть Facebook будет удалять контент, отрицающий Холокост, сообщил руководитель компании Марк Цукерберг. По его словам, соцсеть обновила политику из-за роста случаев антисемитизма во всём мире и «пугающего уровня неосведомлённости о Холокосте».
YouTube будет просить пользователей вести себя прилично в комментариях к видео
Комментарии остаются главным инструментом обратной связи между автором и аудиторией. Но компании приходится постоянно улучшать алгоритмы модерации и дополнять рекомендации для пользователей, чтобы минимизировать количество конфликтных ситуаций.

Facebook подключит ИИ для модерации комментариев

Facebook запускает в тестовом режиме систему оповещения администраторов сообществ о появляющихся конфликтах, работающую на основе анализа ИИ.
Правительство Германии проигрывает кибербуллингу

Несмотря на самые суровые законы о травле и домогательствах в интернете, Германия не справляется с потоком агрессии в социальных сетях в преддверии выборов, которые состоятся в это воскресенье. Об этом пишет The New York Times.
Лауру Дорнхайм, баллотирующуюся в Бундестаг, нередко передергивает от изощренности и жестокости угроз, которые она ежедневно получает в соцсетях. Дорнхайм часто становится мишенью агрессивных нападок из-за ее активной поддержки абортов, гендерного равенства и лояльной миграционной политики. Порой она отправляет жалобы модераторам Facebook и Twitter, в которых призывают убить и/или изнасиловать кандидатку, однако служба поддержки соцсетей не всегда отзывчива: как утверждает Дорнхайм, сходу она может вспомнить только один раз, когда подобный пост заблокировали.
Домогательства и травля в соцсетях давно перестали быть редкими и из ряда вон выходящими. Однако власти Германии надеялись изменить ситуацию к лучшему: в 2017 году принят один из самых жестких в мире законов об интернет-травле ― Netzwerkdurchsetzungsgesetz (NetzDG). Согласно ему, представители Facebook, Twitter и YouTube обязаны удалить любой контент, связанный с развязыванием ненависти, в течение 24 часов с момента получения жалобы ― в противном случае власти оштрафуют соцсети на 50 млн евро. Сторонники закона считали, что это хотя бы частично обезопасит интернет, а модель пресечения буллинга, созданная в ФРГ, впоследствии появится в других странах.
Twitter создала особые условия для випов

Журналисты Bloomberg выяснили, что Twitter по-разному относится к пользователям и утверждают о наличии списка важных персон, получающих привилегии при модерации — случаи оскорбления и буллинга в их сторону рассматриваются в первую очередь. В этот список входят крупные блогеры, лидеры мнений, журналисты и политики.