Журналисты The Guardian, которая одной из первых раскрыла использование данных десятков миллионов пользователей Facebook британской компанией Cambridge Analytica, не могли добиться интервью с главой соцсети Марком Цукербергом. В итоге они пообщались с нейросетью Цукербот, которую обучили отвечать на вопросы с помощью интервью и публичных выступлений главы Facebook.
Алгоритм создала студия Botnik. Цукербота обучали с применением интервью, речей и публикаций в блогах Цукерберга за последние три года. В итоге нейросеть может оперировать 200 тысячами слов. The Guardian готовила вопросы для интервью совместно с Observer.
Так, при ответе на вопрос о вере в демократию Цукербот заявил, что верит в мечту, надежды и цели и что он больше, чем просто «огромный мешок с деньгами». Когда нейросеть спросили, хотела бы она баллотироваться в президенты, та ответила: «Я обязан быть интересным для аудитории. Я не терплю, когда меня перебивают, и уверен, что я — это снимок. Я действительно люблю принимать решения о людях. Наверное, я действительно играю на стороне людей».
Цукербот поделился своим мнением о миссии Facebook: «Я хочу поблагодарить вас всех за участие в моей миссии. Цель Facebook — создать интернет для людей, находящихся в цифровой комнате. Это о том, чтобы рекламировать доллары людям, которые платят, чтобы иметь возможность платить. Мы верим в создание голоса за 8 млрд долларов на платформе для пап, которые жаждут кофе».
«Facebook — это счастливая версия того, кем являюсь я», — так Цукербот прокомментировал вопрос о том, делает ли соцсеть этот мир лучше.
Самым необычным стал ответ нейросети на вопрос о том, можно ли доверять Цукербергу: «Недавно я раскрыл физическую пластину, которой, возможно, миллиард лет, и она в одночасье пассивно производит миллион часов видеоматериалов. Так что вы можете доверять этому».
Интересно, что сама Facebook в начале декабря разработала для своих сотрудников чат-бота Liam Bot, который поможет ответить на неудобные вопросы о соцсети во время праздников.
Так, если семья спросит работника о том, как Facebook борется с разжиганием ненависти, бот может предложить ответы: «Facebook консультируется со специалистами по этому вопросу», «Соцсеть наняла больше модераторов, чтобы контролировать содержание записей», «Работает над ИИ, который будет отмечать ненавистнические высказывания», «Регулирование важно для решения этой проблемы».