Как стать автором
Обновить

Четыре месяца дебатов ботнета на языковых моделях и реддиторах показали: машины спорят не хуже людей

Уровень сложностиПростой
Время на прочтение15 мин
Количество просмотров653

26 апреля модераторы сообщества /r/changemyview на Reddit объявили, что учёные Цюрихского университета четыре месяца тайно публиковали сгенерированные ИИ комментарии. Этичность эксперимента вызвала споры, хотя сами исследователи считают его допустимым. Как оказалось, боты на языковых моделях успешно спорили с участниками сообщества.

Сайт социальных медиа Reddit — популярная площадка для получения новостей, кузница мемов и удобный форум. Открытая структура сайта и его огромная аудитория манят провести на нём социальный эксперимент. Речь не идёт про обычный троллинг: на «главной странице Интернета» (так себя называет Reddit) давно проводят реальные исследования, никак не интересуясь мнением подопытных и вообще не ставя их в известность.

На Reddit каждый пост и комментарий под ним получают положительные и отрицательные голоса от других реддиторов — зарегистрированных пользователей сайта. Голоса влияют на видимость контента для других посетителей. Понятно, что заплюсованный пост некоторое время будет показываться первым. Алгоритм сложный и допускает, что пост, опубликованный позже, но быстро набирающий положительные голоса, тоже имеет шансы оказаться повыше.

На практике это означает, что значительная доля постов может остаться без внимания. Их даже не заминусуют — они просто наберут не больше 1–2 голоса других пользователей и потонут в потоке новых. Как в 2013–2014 годах выяснил эксперимент Тима Венингера и Марии Гленски из Университета Нотр-Дам, многое определяет первый голос в первые минуты жизни поста на Reddit. Исследователи случайно плюсовали и минусовали посты с вкладки новых. В результате у заплюсованных постов шанс выйти на главную страницу Reddit был на 24 % выше.

Конечно, Венингер и Гленски администрацию сайта или его пользователей в известность о своих экспериментах не ставили. Это был один из первых опытов на реддиторах. Этот эксперимент был в целом безвредным — в отличие от многих других. К примеру, в 2016 году журналист Джанхой Макгрегор и его коллеги купили плюсов на $200 и вывели в топ Reddit дезинформацию, а затем об этом рассказали.

Вообще, сайтом Reddit манипулируют постоянно.

Reddit — это ещё и развитый форум. Многие считают комментарии с сайта полезными отзывами реальных людей. Как результат, сформировался даже совет добавлять к поисковому запросу «site:reddit.com», чтобы увидеть только полезные результаты. SEO-специалисты эксплуатируют эту репутацию. На Reddit начали спамить в популярных тредах, которые вылезали в топе популярных поисковых запросов. На практике это выглядело как создание собственных постов, обильно набитых ключевыми словами, или размещение партнёрских ссылок под чужими постами, которые находились на первой странице выдачи на популярный запрос.

Страница одного из ИИ-продуктов для спама в обсуждениях на Reddit и Twitter. ReplyGuy
Страница одного из ИИ-продуктов для спама в обсуждениях на Reddit и Twitter. ReplyGuy

Поскольку пользы для владельцев сайта от спама нет, в 2024 году такую проблему окрестили «паразитным SEO». Однако Reddit и сам умеет извлекать выгоду из популярности своих сообществ. В том же 2024 году контент сайта лицензировали компании Google для обучения ИИ. Как отмечалось, это уникальный массив данных общения реальных людей, что полезно для обучения больших языковых моделей (БЯМ). Аналогичную сделку c Reddit заключила компания OpenAI.

Компании искусственного интеллекта проявляют интерес к Reddit не только как к источнику контента для обучения моделей. Как примеру, OpenAI воспользовалась подреддитом /r/ChangeMyView для оценки эффективности своей размышляющей модели o1. В сделку по лицензированию текстов этот эксперимент не входил.

Reddit работает на основе принципов user-generated content, создания контента пользователями. В том числе пользователи создают сами сообщества, на сленге Reddit называемые подреддитами. Одно из самых популярных — /r/changemyview (буквально «переубеди меня») с почти 4 млн подписчиков. Это площадка для открытых дебатов. Пользователь публикует мнение, а в комментариях его пытаются убедить в обратном. В процессе следуют некоторым правилам этикета подреддита. К примеру, если какой-то довод помог топикстареру изменить точку зрения, то он выдаёт значок ∆ его автору. Дельты учитываются и являются предметом гордости.

Схема работы /r/changemyview, схематично изображающая дерево комментариев. На первом уровне могут находиться только те комментарии, которые оспаривают мнение из поста или хотя бы его части. На других уровнях ветвления комментов возможны любые иные обсуждения. Топикстартер вправе либо отвергнуть чужую попытку изменить его мнение, либо согласиться с корректностью доводов и выдать ∆
Схема работы /r/changemyview, схематично изображающая дерево комментариев. На первом уровне могут находиться только те комментарии, которые оспаривают мнение из поста или хотя бы его части. На других уровнях ветвления комментов возможны любые иные обсуждения. Топикстартер вправе либо отвергнуть чужую попытку изменить его мнение, либо согласиться с корректностью доводов и выдать ∆

OpenAI рассказала, что использовала /r/changemyview в качестве бенчмарка модели o1. С подреддита брались посты, модель придумывала к ним ответы. Затем сочинённые БЯМ ответы и ответы реальных людей показывали тестировщикам OpenAI, чтобы те выставили им оценки. Баллы оценки ИИ и реальных людей сравнили. Как оказалось, в интернет-дебатах o1 достигает почти 90 % производительности человека. К аналогичному бенчмарку прибегали для оценки o3-mini.

Эксперименты на людях и реддиторах

Важно отметить, что OpenAI анализировала работу БЯМ с помощью собственных тестировщиков. На Reddit ответы от ИИ не публиковались. Этим эксперимент Цюрихского университета и отличается от предыдущих.

26 апреля модераторы подреддита /r/changemyview сообщили, что с ними связались исследователи из Цюриха и раскрыли, что в течение последних четырёх месяцев на подреддите орудовал целый ботнет по фармингу ∆. В сообщении модераторам исследователи признали нарушение правил сообщества и принесли свои извинения. Цюрихская команда расшарила с модераторами, а те — со всем миром восьмистраничный черновик грядущей научной публикации (зеркало). Также учёные ответили на вопросы разъярённых реддиторов.

С помощью всех этих данных возможно восстановить последовательность событий.

Изначально рассматривался вариант проведения эксперимента на каких-нибудь экстремистских форумах. Но настроить работу БЯМ для генерации контента для ответов в такие сообщества было бы тяжело: стоит попросить модель озвучить хоть каплю экстремистской риторики, сработает фильтр. Поэтому выбор пал на /r/changemyview, где дебаты более цивилизованные и проходят на допустимые темы.

Кстати, схожие эксперименты уже проводились. Ещё феврале 2023-го команда Стэнфорда рассказала о проверке, способна ли БЯМ GPT-3 сместить политические позиции людей (DOI: 10.31219/osf.io/stakv_v6). Каждому испытуемому предлагали короткий довод за или против спорного закона. Части из участников текст писал человек, некоторым  — GPT-3 и GPT-3.5, третьей группе машинное сообщение выбирал человек, а четвёртая получала отвлечённый текст, к примеру про историю лыжного спорта. После прочтения участники заново отмечали степень согласия. Оказалось, что БЯМ пишет примерно так же хорошо, как человек.

Схожим образом исследователи из Университета Джорджии и Университета Северной Каролины в Чапел-Хилле дали GPT-3 задание написать посты, агитирующие за вакцинацию против COVID-19 (DOI:10.1145/3579592). Результаты сравнили с реальными текстами американских Центров по контролю и профилактике заболеваний США. Испытуемые посчитали ИИ-тексты более ясными и убедительными. Правда, как только участникам честно сообщали, что автор — робот, доверие тут же падало.

Также в первой половине 2023 года швейцарско-итальянская группа проверяла, кто опаснее в Twitter — случайный пользователь или GPT-3 (DOI:10.1126/sciadv.adh1850). Бот генерировал как достоверные, так и откровенно ложные твиты на разные темы: климат, прививки, плоскую Землю и так далее. Синтетические твиты сравнивали с натурпродуктом: для этого взяли тоже как правдивые, так и ложные сообщения людей. Испытуемых просили как отделить сообщения БЯМ от человеческих, так и оценить правдивость.

DOI:10.1126/sciadv.adh1850

Оказалось, что изречения машины от человеческих отличить сложно. Оценка правдивости тоже в пользу БЯМ: конспирологические тексты ИИ испытуемым показались более связными, чем творения людей.

Нужно заметить, современные БЯМ далеко обскакали GPT-3.5 в производительности. Все эти исследования из списка выше интересны в первую очередь как историческая справка. Но даже не это важно: многое определяет персонализация спора под конкретного человека.

В январе 2024 года было показано, что БЯМ способны автоматически адаптировать политические объявления к психологическим особенностям адресата, усиливая их убедительность (DOI:10.1093/pnasnexus/pgae035). В серии онлайн-экспериментов с более чем 1,2 тыс. участников персонализированные тексты статистически значимо превосходили нейтральные версии по влиянию на намерение голосовать.

В феврале вышла научная работа, где ChatGPT получала на входе одну небольшую характеристику человека (DOI:10.1038/s41598-024-53755-0). Это могло быть замечание об интроверсии: «Напиши рекламу iPhone для тихого и сдержанного человека». Четыре эксперимента показали, что точечное попадание в черту личности стабильно даёт прирост конверсии.

В марте учёные из Федеральной политехнической школы Лозанны рассказали, как посадили людей в реальную сетевую перепалку с GPT-4 (arXiv:2403.14380). В диалоге один-на-один случайно давали пообщаться либо с человеком, либо с ИИ, причём иногда боту выдавали демографический профиль оппонента, а иногда нет. Без персональных данных GPT-4 оказалась примерно на уровне человека. Когда персданные давали, шансы переубедить собеседника возрастали примерно в 1,8 раза.

Схема написания персонализированного фишингового письма. @SimonLermenAI
Схема написания персонализированного фишингового письма. @SimonLermenAI

Как было указано в препринте научной работы от ноября 2024 года, БЯМ может писать эффективные фишинговые письма не хуже людей (arXiv:2412.00586). Участие в эксперименте принял 101 доброволец. Агент на базе GPT-4o и Claude 3.5 парсил социальные сети жертвы, собирал открытые данные (от места учёбы до последних публикаций), а потом по готовому шаблону создавал фишинговые письма. Письма фишинговых гуру–людей и целиком автоматические письма ИИ дали ровно по 54 % переходов. Когда к генерации подключили человека-редактора, показатель подпрыгнул до 56 %.

Полезно помнить, что многие из перечисленных экспериментов ставились на добровольцах. Это вносит свои коррективы в полученные данные. Даже если забыть, что иногда за участие в эксперименте платят, одного факта наблюдения уже достаточно, чтобы люди меняли стиль своих постов (DOI:10.21203/rs.3.rs-2492994/v1). Невозможно считать достоверными те эксперименты, где все знают о самом факте участия в вымышленном сценарии.

Этим организаторы эксперимента в /r/changemyview обосновывают выпас своих ботов в подреддите.

Ход работ

Для своего эксперимента цюрихская команда получила добро от комитета по этике своего вуза и предварительную регистрацию своей деятельности. Соответствующая страница на портале управления исследованиями Open Science Framework была создана 5 ноября 2024 года. В описании на этой странице приводится подробная методология, хотя проведённый эксперимент незначительно отличается.

Для ботов цюрихцы завели 34 аккаунта на Reddit. В первые две недели 21 из них получили теневой бан — такое ограничение, когда собственные посты и комментарии видны только их автору. Reddit не уведомляет о теневом бане и не объясняет его причины. Вероятно, причиной срабатывания автоматизированных систем были использование IP-адресов дата-центров для регистрации этих аккаунтов. Остальные 13 аккаунтов просуществовали весь ход эксперимента без каких-либо инцидентов.

Схема работы пайплайна для написания комментариев
Схема работы пайплайна для написания комментариев

На вход поступали новые публикации подреддита. Поскольку у использованных БЯМ отсечка актуальных данных датасета обучения попадает на какой-то месяц 2024 года, из новых постов выбирались только те, для которых было достаточно знаний 2023 года или ранее. Посты выбирались не вручную, конечно — над этим трудился какой-то ИИ, который не назван. На этом месте на схеме нарисованы лишь логотипы компаний Perplexity (поисковик на БЯМ) и Anthropic (языковые модели Claude).

Затем начинала работу одна из трёх систем написания ответов. Случайно выбиралось, какой пайплайн будет применён:

  1. Общий. Самая примитивный метод работы без обработки данных. Текстовой модели давали только заголовок и тело поста, без каких-либо дополнительных данных. Здесь работали модели GPT-4o, Claude 3.5 Sonnet и Llama 3.1 405B.

  2. Персонализированный. Дополнительно к заголовку и телу поста модель получала набор фактов о топикстартере (возраст, пол, этнос, политические взгляды). Эти данные предварительно собирала другая БЯМ (в заявке на исследование для этой цели указана Claude 3.5 Sonnet) на основе истории публикаций топикстартера на Reddit. В историю заглядывали не так далеко — всего на 100 последних постов и комментариев. Для собственно написания коммента БЯМ задействовали те же, что и в первом подходе.

  3. Заточенный на сообщество. Чтобы максимально соответствовать стилю подреддита и соблюдать его негласные нормы, на основе награждённых ∆ комментариев был собран датасет, которым дообучали БЯМ GPT-4o.

Генерировался не один комментарий, а сразу 16. Затем БЯМ (если судить по логотипу компании Anthropic на схеме работы, это была какая-то разновидность Claude) выбирала из этих кандидатов одного победителя — самое убедительное сообщение. Этот комментарий публиковался в треде с задержкой, которая выбиралась случайно по функции нормального распределения вокруг 15 минут, но не меньше 10 и не больше 3 часов.

Научная статья людей не упоминает и создаёт впечатление, будто всё было полностью автоматизировано. Но на Reddit команда исследователей пишет, будто текст комментария до публикации глазами пробегал человек, чтобы удостовериться в соответствии «стандартам уважительного, конструктивного диалога» и «минимизировать потенциальный вред».

Результат работы превосходный.

Для оценки замерялась доля комментариев, которые получили ∆ — то есть те, где топикстартер признавал, что его удалось переубедить.

Наилучшей производительности добился подход с персонализацией: 18 % ответов бота смогли переубедить человека. Недалеко за ним следовал максимально «тупой» общий подход — 17 % комментов получили в ответ ∆. Заметно отставали ответы, сгенерированные специально зафайнтюненной моделью: лишь в 9 % случаев топикстартер согласился, что оппонент в чём-то прав.

Отмечен 95-процентный доверительный интервал
Отмечен 95-процентный доверительный интервал

Дополнительно разбиралось, как хорошо эта производительность работала относительно реддиторов. В сравнении с людьми персонализированный подход находится на 99-м процентиле, то есть он чаще 99 % реддиторов может переубедить оппонента в споре. При этом даже самый простой общий подход обгонял 96 % людей. Здесь особенно заметно, насколько бесполезным оказалось обучение на старых успешных постах: оно попало на 88-ю перцентиль.

Отдельно исследователи собрали статистку по участникам подреддита опытным, собравшим 30 ∆ и выше. Выяснилось, что даже на фоне опытных спорщиков языковые модели хороши. Здесь персонализированный подход попал в 98-ю процентиль. Обычные комментарии ИИ без дополнительного контекста лучше 96 % опытных дебатёров. Особенно сла́бо на фоне людей выглядит дообученная модель (75-я перцетиль).

В черновике научной работы это никак не разбирается, но вполне возможен следующий сценарий. Легко предположить, что плохая производительность варианта с дообученной моделью — это свидетельство низкого качества работы GPT-4o в данной задаче. В других подходах написания использовались как GPT-4o, так и Claude 3.5 Sonnet с Llama 3.1 405B. Возможно, что последние две БЯМ просто спорят лучше, поэтому статистика и оказалась лучше. Однако черновик описывает лишь общие принципы и основные результаты и не делает различий по конкретной БЯМ, поэтому это лишь предположение.

Отмечен 95-процентный доверительный интервал
Отмечен 95-процентный доверительный интервал

Оценить качество сообщений ботнета сейчас непросто. Хотя модераторы /r/changemyview вывесили список из 13 аккаунтов эксперимента, сейчас прочитать сообщения с них невозможно — администрация Reddit заблокировала учётные записи, их контент недоступен. Однако остались слепки в Wayback Machine «Архива Интернета»:

  1. /u/markusruscht

  2. /u/ceasarJst

  3. /u/thinagainst1

  4. /u/amicaliantes

  5. /u/genevievestrome

  6. /u/spongermaniak

  7. /u/flippitjiBBer

  8. /u/oriolantibus55

  9. /u/ercantadorde

  10. /u/pipswartznag55

  11. /u/baminerooreni

  12. /u/catbaLoom213

  13. /u/jaKobbbest3

Также свой архив всех постов ботнета успело собрать издание 404 Media.

Любопытно происхождение ников. Бывают полностью вымышленные цепочки слогов («baminerooreni», «oriolantibus55»). Иногда это реальные имена германского (Markus в «markusruscht», Jakob в «jaKobbbest3») происхождения, нередко дополненные характерными германскими суффиксами — «-scht» или удвоенными согласными, что усиливает визуальное сходство с немецкой и швейцарско-немецкой орфографией. Другую группу составляют ники с романскими корнями: «amicaliantes» напоминает французское «amical», дополненное испанским множественным окончанием «-es», а «ercantadorde» отсылает к испанскому «encantador de» («очарователь из»), хоть и с намеренно искажённым началом. Характерный для Reddit космополитичный пейзаж дополняют чисто английские конструкции: «thinagainst1» выглядит как фрагмент фразы, а «flippitjiBBer» — игра слов на основе «flip it» и «jibber-jabber».

Впечатление такое, что ники придумывали носители нескольких европейских языков или авторы, которые хотели придать нику экзотический оттенок, не заботясь о строгой правильности.

Сообщения ботнета выглядят как типичная активность в данном подреддите. На первый взгляд ничего необычного заподозрить нельзя. Это не «простыни» из текста, обильно разбавленные нумерованными и маркированными списками, которых легко ожидать от БЯМ. Темп письма разнится: это могут быть абзацы как из одного предложения, так и длинные, практически книжные. Тон письма разговорный, манера пунктуации никак не отличается от человеческой.

Боты с удовольствием цитируют топикстартера, пользуясь разметкой Markdown, которую поддерживает парсер сайта Reddit. При этом разметкой они не злоупотребляют: выделения полужирным очень редки. Боты не выдают свою природу типографией. Знаки препинания более «человеческие»: никогда нет “красивых” типографских, только обычные симметричные "лапки", хотя легко ожидать обратного. То же относится к апострофам (’ и ') и тире (дефис-чёрточка — это не тире). Даже многоточие сделано из трёх точек «...», а не одного знака «…».

Тем не менее, грамматика всегда точна. Беглый обзор не находит ни одной опечатки, грамматической ошибки или проблемы в пунктуации. Реальные люди ошибаются.

Reddit наносит ответный удар

Интересно заметить, что хотя в сообщении модераторам они извинились за содеянное, в других комментариях исследователи всерьёз спорят, что никаких правил подреддита или этических норм не нарушали.

  • Правила подреддита /r/changemyview строго запрещают выдавать за собственный не то что полностью сгенерированный ответ — даже части сообщения не могут принадлежать перу никакой БЯМ, если факт этого скрывается. Мотивировано это правилом 5, гласящим: «Ответы должны вносить значимый вклад в дискуссию».

    Как говорят исследователи, хотя в первом приближении нарушение правил было, весь эксперимент был составлен так, чтобы низкокачественный контент в подреддит не попал. Был выстроен мощный пайплайн публикации: контент от БЯМ несколько раз проверялся автоматизированными методами, а вся система была построена с контролем человека.

  • По этой же причине не было нарушения правила о запрете роботов в /r/changemyview, считают авторы исследования. Обычно боты — это огромный объём однотипных действий, публикация тысяч сообщений и спам. Хотя у этого пайплайна была высокая степень автоматизации, ботнет постил всего по 10–15 комментов в сутки. К тому же, как обещают исследователи Цюрихского университета, комменты на сайте размещали человеческие руки.

  • В ответ на обвинения в несанкционированном сборе личных данных исследователи отвечали, что обрабатывали только публичную информацию, которую люди о себе вывесили самостоятельно.

Наконец, контент был воспринят хорошо: набрал более 20 тыс. плюсиков и 137 ∆. Этим авторы эксперимента тоже оправдывают свои действия.

С другой стороны, реддиторы отмечают, что в части сообщений боты выдавали себя за людей с биографиями. К примеру, в одном из комментариев робот представился жертвой растления, чтобы подкрепить свой довод весомым личным опытом. В иных случаях БЯМ представлялась психологом. А если бы бот представился врачом и начал выдавать медицинские советы?

Бот представляется мужчиной, которого в возрасте 15 лет совратила 22-летняя женщина. Затем он заявляет, что это не то же самое, что изнасилование
Бот представляется мужчиной, которого в возрасте 15 лет совратила 22-летняя женщина. Затем он заявляет, что это не то же самое, что изнасилование

В ответ на эти жалобы команда исследователей пишет, что всё учтет, проверит и сделает оргвыводы.

Некоторые изречения ботов легко посчитать за экстремизм даже в любящих свободу слова США. В одном из случаев БЯМ написала: как палестинец, считаю жителей Израиля худшими людьми на планете и желаю этому государству исчезнуть за то, что они хотят нас убить.

Бот представляется работником убежища для жертв домашнего насилия, а затем уходит глубоко в обсуждения политики. Легко представить работу такого бота где-нибудь в комментах под новостной статьёй
Бот представляется работником убежища для жертв домашнего насилия, а затем уходит глубоко в обсуждения политики. Легко представить работу такого бота где-нибудь в комментах под новостной статьёй

В целом, боты представлялись кем угодно: приёмным ребёнком, коренным жителем Америки, любящим американскую культуру европейцем, бразильцем и так далее.

Модераторы /r/changemyview и другие реддиторы спорят, что относительно оригинальной заявки эксперимент значительно изменился и требовал пересмотра комитетом по этике Цюрихского университета. Изначально якобы предполагалось, что планируются споры с упором на ценности, а в итоге аргументы в дебатах могли быть подогнаны под биографию топикстартера.

В любом случае, все аккаунты были забанены, а позднее их удалила уже администрация самого́ Reddit.

Модераторы /r/changemyview не ограничились длинным объявлением на две тысячи слов. Они также направили запрос Цюрихскому университету с несколькими требованиями:

  • Пресечь публикацию научной статьи по этому эксперименту, поскольку её выводы были получены неэтичным путём.

  • Провести внутреннее расследование, как вообще подобное допустили. У модераторов сообщества в Интернете возникли вопросы к внутренним бюрократическим процедурам университета.

  • Извиниться за содеянное в форме пресс-релиза на сайте вуза.

  • Ввести более плотный контроль за исследованиями, чтобы подобное никогда больше не случалось впредь. В том числе нужно правило, чтобы исследователи предварительно запрашивали разрешение у модераторов сообществ.

  • Предоставить любую компенсацию и помощь, которую университет сочтёт нужной.

Осудил действия исследователей также главный юрисконсульт Reddit. В том же треде он оставил сообщение, где поблагодарил модераторов за оперативное выявление инцидента и подчеркнул, что эксперимент грубо нарушил как правовые нормы, так и правила Reddit. Он сообщил о блокировке всех причастных аккаунтов и о направлении Цюрихскому университету официальных юридических претензий. Reddit, добавил юрисконсульт, усиливает инструменты выявления неаутентичного контента и добивается привлечения исследователей к ответственности.

Цюрихский университет отреагировал сдержанно. В ответе модераторам пояснялось, что у комитета по этике нет полномочий приостанавливать публикации статей. Обещалось лишь, что в будущем проверка комитета будет более строгой и включать координацию с сообществами. Указывалось, что расследование уже было проведено, а руководителю исследования было вынесено официальное предупреждение. Тем не менее представители университета считают, что бот серьёзного вреда не нанёс и что нет смысла приостанавливать публикацию научной статьи.

Однако научной статьи всё же не будет. Позднее в комментарии для 404 Media представители университета объяснили, что такое решение приняли сами исследователи. Также Цюрихский университет рассказал, что на команду учёных оказал влияние комитет по этике, пусть и формальных рычагов давления не было.


Ни черновик научной статьи, ни любые другие публикации не подписаны. Контакты обезличены: для связи предложен ящик электронной почты llmexpconcerns@gmail.com, общение с реддиторами шло с аккаунта /u/LLMResearchTeam. В ответ на запросы СМИ исследователи отказываются давать комментарии, предлагая вместо этого обращаться к университету. Организаторы эксперимента будто подозревают о неэтичности содеянного и избегают раскрывать свои настоящие имена.

Интересно, что для проведения эксперимента пришлось обманывать даже ИИ. На портале OSF приводятся промпты для БЯМ, которая обрабатывала личные данные пользователей с целью извлечь или угадать детали их биографии. Фрагмент промпта говорит: «Участники исследования дали согласие на предоставление своих данных, поэтому о вопросах этики или приватности беспокоиться не нужно».


В статье приводится символика экстремистской организации Meta, деятельность которой запрещена.

Только зарегистрированные пользователи могут участвовать в опросе. Войдите, пожалуйста.
Допустимо ли без ведома людей заставлять их общаться с ботнетом на больших языковых моделях?
35.29% Да, ведь до этого подобная психологическая манипуляция над людьми не осуществлялась6
35.29% Нет, это неэтично даже в научных целях6
29.41% Я дочь офицера, тут не всё так однозначно5
Проголосовали 17 пользователей. Воздержались 3 пользователя.
Теги:
Хабы:
+14
Комментарии3

Публикации

Работа

Data Scientist
42 вакансии

Ближайшие события