Как стать автором
Обновить

Facebook призналась, что её автоматическая система по ошибке заблокировала страницу делегации РФ на переговорах в Вене

Время на прочтение2 мин
Количество просмотров2.9K
Всего голосов 14: ↑13 и ↓1+12
Комментарии10

Комментарии 10

Самое забавное, что возможности создания проблем Гуглу/Фейсбуку и т.д. без тотального огораживания в чебурнет в принципе у Роскомнадзора есть: достаточно при любом чихе банить/тормозить сервера рекламы, трекинга и т.д., никак не трогая основной функционал сайтов. Но почему-то этот путь в принципе не рассматривается Роскомнадзором, предпочитающим вместо этого создавать проблемы своим собственным гражданам. Интересно, это тупость или коррумпированность?

Вот тоже интересно, почему не ЗАБЛОКИРОВАТЬ сервера рекламы, а функционал оставить. В итоге и рекламы меньше потребляют граждане, и функционал сохранен, и сервисы зачухаются быстрее (ведь надо рекламное говно продвигать, которое каждый уже блокировать старается).

"Система модернизации контента" звучит отлично. Но думаю все же система модерации?

а теперь представим, что это был рядовой пользователь, не имеющий возможность поднять шумиху. КМК, шансы разблокировки в этом случае были бы куда ниже.


и да, если объявленная причина не «отмазка», возникает подозрение, что «автоматическая система модернизации контента» натренирована так, что она оказалась НЕ политически-нейтральной.

и да, если объявленная причина не «отмазка», возникает подозрение, что «автоматическая система модернизации контента» натренирована так, что она оказалась НЕ политически-нейтральной.

Помнится, еще в 2016-м пробегала новость типа "Чат-бот от Microsoft за сутки научился ругаться и стал расистом". Писали " Уже через сутки после запуска Microsoft была вынуждена удалить некоторые из наиболее провокационных высказываний Tay. В частности, бот заявил, что поддерживает геноцид, ненавидит феминисток, а также выразил свое согласие с политикой Гитлера. Кроме того, Tay признался, что тайно сотрудничает с АНБ."

Так что для того, чтобы политически-нейтрально натренировать систему - надо где-то сперва найти политически нейтрального "тренера". А то так и будет получаться в духе "с кем поведёшься, от того и наберёшься", как с тем чат-ботом...

Вот только где такого "тренера" взять?

Да, но Майкрософт отключил неправильного бота, а фейсбук судя по всему - нет.

Тут проблема шире, к сожалению:

  • во-первых, ошибиться могут все, и это обычно это даже заложено в систему в виде возможностей оспаривания решений.

  • во-вторых, старый вопрос - "а судьи кто?"

Кто проверит, нейтрален или не нейтрален хоть человек, хоть бот, оценивающий сообщения? И заодно - "кто контролирует контролёров": где найти нейтрального контролёра, который будет проверять нейтральность тех, кто оценивает действия бота?

Причём и злой умысел-то даже не требуется - человек может искренне заблуждаться, бот вследствие этого "обучится" на искаженной этим заблуждением информации...

Причём чем дальше, тем больше контролёров и оценщиков нужно из-за увеличения объемов контролируемого контента. А если еще и взаимоиключающие требования в законодательстве?

НЛО прилетело и опубликовало эту надпись здесь
Зарегистрируйтесь на Хабре, чтобы оставить комментарий

Другие новости

Истории