Почему радикальные меры вроде возрастных цензов и отмены «Раздела 230» не сделают соцсети безопаснее.
От переводчика: ниже выжимка из этого длинного подкаста. Главные мысли и инсайты.
Суть в одном абзаце: В США прошли первые успешные «маркерные» суды против ИТ-гигантов (Meta*, YouTube), где истцы доказали: соцсети калечат психику подростков не из-за конкретных постов, а из-за самого дизайна платформ. Это создает прецедент, грозящий разрушить знаменитый «Раздел 230» — юридический щит, оберегавший корпорации последние 30 лет. Однако попытка политиков навести порядок и зарегулировать соцсети намертво сталкивается со свободой слова (Первой поправкой) и рискует обернуться тотальной цензурой в интернете.
Главные тезисы:
Судят «фичи», а не контент. Истцы впервые смогли доказать, что бесконечный скролл, автоплей и алгоритмические ленты — это «дефектный продукт» (как машина без ремней безопасности), намеренно вызывающий зависимость. Платформы больше не могут спихивать вину исключительно на пользователей.
Ловушка «Раздела 230». Политики требуют отменить этот закон, чтобы бигтех отвечал за все. Но парадокс в том, что без него корпорации в панике начнут удалять любой спорный контент, лишь бы избежать многомиллиардных исков. Итог — не безопасность, а маниакальная перемодерация.
Зависимость = бизнес-успех. Внутри корпораций работают когнитивисты, чья единственная цель — взломать мозг пользователя и заставить его скроллить дольше. Ждать от Meta* создания «безопасного Instagram*» бессмысленно: это прямо противоречит их бизнес-модели.
Смерть этики (Trust & Safety) в бигтехе. Отделы доверия и безопасности внутри корпораций практически уничтожены. После прихода новой администрации ИТ-олигархам выгоднее заниматься политическим лоббизмом и обмениваться услугами с властью, чем защищать права пользователей.
Слепое регулирование. Законодатели продвигают новые акты (вроде KOSA), но сами не понимают, как отделить вредный дизайн от свободы слова. Государство ищет «юридический крючок», чтобы стать легальным цензором алгоритмов.
Европейский сценарий как выход? В финале подкаста звучит мысль, что Америке пора перенять подход ЕС: принять жесткий федеральный закон о приватности данных, заставить корпорации сделать алгоритмы прозрачными и обязать их публиковать внутренние исследования о вреде своих продуктов.
От переводчика: Почему этот сугубо американский юридический прецедент важен для нас и что из этого текста стоит вынести русскоязычным пользователям, ИТ-специалистам и бизнесу.
1. Смена мишени: от контента к механикам (UX/UI)
Мы привыкли, что претензии к соцсетям всегда касаются информации (фейки, запрещенные материалы, травля). Американский суд впервые перевел фокус на интерфейс. Алгоритмические ленты, автоплей, пуш-уведомления, бьюти-фильтры — все эти дофаминовые крючки, которые используют и локальные гиганты (VK, Яндекс, Telegram), теперь юридически трактуются как «потенциально опасный дизайн». Это сигнал для всей индустрии: токсичные паттерны удержания внимания становятся наказуемыми.
2. Подсказка для локальных регуляторов
Отечественные регуляторы (например, Роскомнадзор) сейчас сфокусированы на блокировке и удалении контента. Но дискуссия на Западе показывает новый вектор контроля: требование прозрачности алгоритмов и отключения аддиктивных механик (например, запрет рекомендательных лент для пользователей младше 16 лет). Вполне вероятно, что через пару лет этот тренд докатится и до СНГ, и местным платформам придется законодательно перестраивать архитектуру своих сервисов.
3. Иллюзия «экологичного ИТ» окончательно разрушена
Подкаст отлично срывает маски: бигтеху плевать на ваше ментальное здоровье. Все разговоры корпораций про «этику» и отделы Trust & Safety (доверия и безопасности) — это зачастую лишь пиар и попытка избежать судов. Пользователям (и особенно родителям) важно осознать: вы проигрываете в нечестной игре. По ту сторону экрана сидят сотни высокооплачиваемых нейробиологов и дата-саентистов, чья единственная задача — взломать ваш мозг и заставить скроллить дальше.
4. ИИ как новый генератор рисков
Платформы все больше наполняются сгенерированным контентом (AI-ответы в поиске, боты, дипфейки). Текст поднимает критически важный вопрос: несут ли поисковики и платформы ответственность за то, что генерируют их собственные нейросети на базе чужих текстов? Российским компаниям, активно внедряющим LLM (YandexGPT, GigaChat), придется решать ту же дилемму — как модерировать генеративный ИИ, чтобы не получить лавину судебных исков за клевету или опасные советы.
5. Урок для фаундеров и стартапов
Если вы разрабатываете приложение или сервис, эпоха «расти любой ценой, используй любые манипуляции для удержания)» начинает заканчиваться. Внедрение агрессивных темных паттернов скоро может стать не просто вопросом этики, а причиной краха компании из-за коллективных исков. Проектировать продукт придется с оглядкой на то, не сводит ли он аудиторию с ума.
Сам подкаст
Сегодня в подкасте Decoder мы обсуждаем прецедентные суды о зависимости от соцсетей, которые только что завершились двумя громкими вердиктами против бигтеха. Первое дело — в Нью-Мексико против Meta*, второе — в Калифорнии против обеих корпораций (которые, к слову, уже заявили о намерении подать апелляцию).
Это сложные дела с колоссальными последствиями: они могут перекроить не только механику работы самих платформ, но и саму природу свободы слова в Америке. Чтобы во всем этом разобраться, я позвал в эфир тяжелую артиллерию. Со мной мой друг Кейси Ньютон — основатель и редактор отличного медиа Platformer и соведущий подкаста Hard Fork, а также старший репортер The Verge по правовым вопросам Лорен Файнер.
Лорен лично присутствовала в зале суда в Лос-Анджелесе, где давали показания топ-менеджеры уровня Марка Цукерберга. Слушалось дело 20-летней девушки по имени Кейли — и она смогла доказать, что Meta* и Google спроектировали свои платформы халатно, и именно их дизайн усугубил ее проблемы с психическим здоровьем.
Эти процессы — лишь первые ласточки в грядущей волне исков против IT-гигантов о причинении физического и морального вреда. В центре внимания — архитектурные и дизайнерские решения таких площадок, как Instagram* и YouTube. Истцы утверждают: платформы имеют фундаментальные изъяны, которые калечат пользователей (особенно подростков). И главное — корпорации знали об этих проблемах, но проявили преступную беспечность, все равно выкатив эти фичи в релиз.
По сути, эти суды — часть куда более масштабной кампании, цель которой состоит в том, чтобы в корне переписать юридические механизмы регулирования социальных сетей.
Говоря о «вреде», мы имеем в виду не только вызывающий привыкание дизайн, который заставляет пользователей маниакально возвращаться в приложение. Речь также о таких фичах, как алгоритмические рекомендации и фильтры для камеры, которые усугубляют тревожность, депрессию и дисморфию тела. Смещение фокуса на то, как работают платформы, а не только на сам контент — это часть движения, которое набирает силу уже не первый год. Его суть сводится к тому, что соцсети не могут быть здоровой средой по определению. Что это, по сути, изначально бракованный продукт — такой же, как сигареты, которые даже при использовании по прямому назначению вызывают рак.
Тем здесь полно, и они сложные, так что мы с Кейси и Лорен убили немало времени, чтобы разложить все по полочкам. Первый вопрос: есть ли вообще грань между продуктовыми фичами (вроде рекомендаций, автоплей-видео и бесконечного скролла) и тем вредоносным, но формально легальным контентом, который скармливают молодежи через эти инструменты? Я говорю о роликах, провоцирующих расстройства пищевого поведения (РПП), или постах, цель которых — убедить парней ненавидеть женщин.
Проблема в том, что заставить корпорации как-то специфически модерировать подобный контент крайне сложно, если вообще не антиконституционно. Первая поправка прямо запрещает государству указывать компаниям, какую информацию продвигать, а какую удалять. А частные иски обычно разбиваются о знаменитый «Раздел 230» Закона о соблюдении приличий в телекоммуникациях, который дает IT-платформам иммунитет: они не несут ответственности за то, что постят их пользователи.
Распутать этот клубок ох как непросто. Алгоритмическая лента, в которой нет контента — это просто бессмыслица, а не цепляющий продукт, и уж тем более не «халатно спроектированная и наносящая вред» угроза. Многие умные люди, которые приходили к нам в подкаст и давали комментарии The Verge за последние годы, считают, что нынешние судебные решения — это просто попытка обойти «Раздел 230» с черного хода. Это способ заставить платформы отвечать за то, что, по сути, является просто свободой слова, и в перспективе это приведет лишь к еще большей цензуре. Мы будем много говорить об этом и попытаемся понять: есть ли в нарастающих призывах полностью отменить «Раздел 230» хоть какая-то логика, или это банальный политический популизм.
Но здесь зарыто куда больше смыслов и уровней сложности. Вы услышите, как мы с Кейси пару раз за эпизод реально выходим из себя. Мы оба так давно пишем про регулирование бигтеха, что просто глупо и дальше делать вид, будто система отлично работает для обычных людей, которые день за днем огребают негатив в соцсетях. «Разделу 230» уже стукнуло тридцать лет, и вообще непонятно: тот прекрасный мир, который он должен был помочь построить, когда-нибудь существовал в реальности?
Лорен расскажет о том, что даже авторы «Раздела 230» готовы к переменам, особенно когда речь заходит про искусственный интеллект и свободу слова в сети. Но в то же время любые правки в этот закон в лобовую сталкиваются с Первой поправкой и рискуют открыть дверь для масштабной государственной цензуры. Как я уже сказал, все сложно. И мне чертовски интересно услышать ваше мнение на этот счет, потому что ясно одно: скоро правила игры могут быть полностью переписаны.
Итак: Кейси Ньютон из Platformer и старший политический репортер The Verge Лорен Файнер обсуждают главные суды над соцсетями. Погнали.
Интервью было слегка отредактировано для краткости и ясности.
Лорен Файнер, ты наш старший репортер по правовым вопросам в The Verge. Кейси Ньютон, ты основатель и редактор Platformer, и, я бы сказал, наш вечный шеф-редактор по Кремниевой долине здесь, в The Verge.
Кейси Ньютон: Я до сих пор идентифицирую себя как редактора The Verge по Кремниевой долине, так что рад, что наши чувства взаимны.
Как поется в песне: You can check out any time you like, but you can never leave, дружище. Добро пожаловать в Decoder, рад вас обоих видеть. Я хочу поговорить о судебных исках, которые обрушились на соцсети в Калифорнии и Нью-Мексико. Лорен, если вкратце, ты лично присутствовала как минимум на процессе в Калифорнии. Насколько я помню, Snap и TikTok пошли на мировую и вышли из игры. А вот YouTube и Meta* только что проиграли суд присяжных. Расскажи, что вообще происходило на этих слушаниях и что ты видела в зале суда.
Лорен Файнер: В своей основе эти процессы касались дизайнерских решений: как именно соцсети проектируют взаимодействие пользователей с тем, что всплывает в их лентах. Это была попытка подойти с другой стороны к давней проблеме бигтеха: можно ли вообще отделить дизайн от контента на этих платформах? Вот до чего пытались докопаться в суде. В результате на свет всплыла целая гора внутренних документов компаний. В лос-анджелесском деле фигурировали Meta* и YouTube, а в Нью-Мексико — только Meta*.
Мы увидели кучу внутренней документации, выслушали показания множества бывших сотрудников Meta*, ставших информаторами — они рассказывали о принятых решениях и о том, что происходило за закрытыми дверями. В Лос-Анджелесе для дачи показаний вызвали даже главу Instagram* Адама Моссери и гендиректора Meta* Марка Цукерберга.
Кейси, у нас в The Verge такие дела называют «показательными» или «маркерными» (bellwether trials). Вся индустрия решила, что мы будем использовать именно этот термин. Можешь в двух словах объяснить, что он значит? Ты освещаешь попытки зарегулировать эти корпорации целую вечность, и то, что эти суды называют «маркерными», кажется здесь особенно важным.
Кейси Ньютон: Да. Как ты знаешь, Нилай, последние 20 лет компании использовали «Раздел 230» как непробиваемый щит. Стоило кому-то подать в суд на платформу по поводу контента, иск тут же отметали. Эти дела стали «маркерными», потому что в случае успеха они открывали совершенно новый фронт для судебных баталий: компании больше не смогли бы на автомате прикрываться «Разделом 230». И вот это наконец произошло. Теперь мы ожидаем, что по проторенной дорожке пойдут еще десятки подобных исков.
Надеюсь, к этому моменту слушатели Decoder уже в курсе, что такое «Раздел 230», но напомню: это закон, согласно которому платформы не несут ответственности за посты своих пользователей. Если я напишу в Instagram* или TikTok: «Кейси Ньютон — ужасен, подкаст Hard Fork — мой заклятый враг, их нужно запретить», Кейси может засудить меня, но не может подать в суд на Instagram*.
Это всегда было критически важно. Всякий раз, когда кто-то заявлял, что платформа нанесла ему вред, там отвечали: «Это не мы, вы просто злитесь на чьи-то слова. А наша роль в распространении и продвижении этих слов — это, по сути, часть самой свободы слова».
Кажется, в этот раз истцам удалось выстроить аргументацию гораздо лучше, чем в прошлом. Вспоминаются такие дела, как Херрик против Grindr. Или знаменитый иск к Snapchat из-за фильтра-спидометра, когда подросток разогнался до безумной скорости, пытаясь сделать скриншот в приложении, чтобы показать, как быстро он гонит. Те процессы не стали настолько же прецедентными. Что отличает нынешние суды, и почему в этот раз аргументация сработала лучше?
Кейси Ньютон: Дело Леммон против Snap было очень важным прецедентом. У Snapchat тогда был фильтр: ты мог ехать в машине, снимать себя на видео, и на экране отображалась твоя скорость. Истцам удалось доказать, что приложение фактически создавало стимул гонять на пределе и совершать опасные поступки. И в том конкретном случае все закончилось страшной аварией.
Это дело сыграло огромную роль, потому что внезапно оказалось, что щит «Раздела 230» не абсолютен. До этого уже было пара мелких исключений — например, «платформы обязаны удалять терроризм и CSAM (детскую порнографию)». Но здесь мы впервые сказали: «Вы не можете внедрять такой фильтр, потому что он провоцирует ужасное поведение». Именно это открыло перед адвокатами истцов целое непаханое поле.
Теперь они могут задать вопрос: «А какие еще дизайнерские фичи есть у этих платформ и к чему они подталкивают пользователей? Мы не собираемся обсуждать суть сообщений в Snapchat или содержание постов в ленте Instagram*. Зато мы спросим про бесконечный скроллинг, про автоплей видео и про пуш-уведомления, которые сыплются всю ночь и лишают вас сна». И внезапно их аргументы обрели вес в суде — просто потому, что у них уже был тот первоначальный прецедент.
Нилай Патель: Знаешь, меня в том случае больше всего поразило то, что этот фильтр — спидометр — создал сам Snapchat. Это был их собственный продукт, их «слова». Они буквально говорили пользователям: «Слушай, если ты как следует разгонишься, мы покажем твою скорость на экране». Но в нынешних делах все иначе. Это не контент самой платформы. Вы можете сделать бесконечную ленту или видео с автоплеем, но это лишь инструменты управления чужими словами.
Пришлось ли истцам доказывать обратное? Ведь именно здесь можно раз за разом натыкаться на стену «Раздела 230», когда корпорации говорят: «Ребята, мы просто управляем чужим контентом. Это все еще территория Первой поправки».
Кейси Ньютон: Да, истцам удалось блестяще доказать, что бесконечный скролл — это не «чужие слова». Здесь нет никакой ответственности третьих лиц; просто кто-то создал продукт, и этот продукт оказался с дефектом. Адвокаты смогли успешно сравнить эти фичи с автомобилями без ремней безопасности, и присяжным эта метафора очень зашла.
Стоит на минуту задуматься, почему это сработало, потому что люди в соцсетях, с которыми я общаюсь, кажется, вообще этого не понимают. У каждого из нас есть знакомый, у которого серьезные проблемы с Instagram*. Скорее всего, это кто-то из ваших близких родственников. Они удаляли приложение с телефона сотню раз — и все равно устанавливали заново. Они ставили лимиты экранного времени, но раз за разом возвращались, ненавидя себя за это. Сегодня в Америке это практически универсальный опыт. Поэтому, когда вы сажаете присяжных в зал и говорите: «С Instagram* что-то не так», очень легко найти массу людей, которые ответят: «Да, все так и есть».
Нилай Патель: У меня всегда было предчувствие, что если хоть одно из таких дел дойдет до присяжных, сработает именно то, о чем говорит Кейси. У всех есть негативный опыт использования соцсетей. Да, сами корпорации вечно твердят нам, что статистически эти проблемы ничтожны. Но их аудитория настолько огромна, что даже крошечный процент — это многие и многие миллионы людей. Мне кажется, до платформ это тоже так и не дошло.
Лорен, у тебя было такое же ощущение? Что когда ты ставишь Марка Цукерберга перед судом присяжных, у соцсетей просто не остается шансов на победу?
Лорен Файнер: Сказать наверняка было очень сложно. Во-первых, по какому принципу вообще отбирали этих присяжных? Их выбрали потому, что они мало сидят в соцсетях, или, наоборот, у них в основном позитивный опыт? Это была главная загадка — как именно они воспримут доказательства.
Но в то же время, слушать некоторые вещи в суде было физически тяжело. У каждого из нас есть знакомые, которые столкнулись с ментальными проблемами или просто не могут оторваться от телефона — да что там, многие из нас и есть такие люди. И это не могло не зацепить присяжных на чисто человеческом уровне.
Когда я слушала показания Марка Цукерберга, он рассказывал про один бьюти-фильтр. Выяснилось, что один из его собственных сотрудников был категорически против его внедрения. Кажется, он говорил, что у него растут дочери, и он думает о том, как подобные вещи могут на них повлиять. Так что, возможно, у этих присяжных не так много опыта в соцсетях или их опыт отличается от опыта истицы, но они наверняка знают людей, которые проходили через нечто подобное.
Кейси Ньютон: Думаю, стоит упомянуть, что TikTok и Snap решили заключить мировое соглашение еще до начала суда. В тот момент я подумал: «Ого, они, должно быть, реально в панике». Честно говоря, я ждал, что Meta* и YouTube тоже пойдут на попятную. Когда этого не произошло, стало ясно — у них серьезные проблемы.
Нилай Патель: Здесь все проводят параллели с крупными табачными компаниями, производителями фастфуда и сахара, так? Мы все знаем, что это вредно. «Никотин — это кайф, мы просто не можем остановиться». По логике, здесь тоже нужна какая-то нормативная база, или компании хотя бы должны предупреждать о рисках. Лорен, как тебе кажется, эта аналогия работает?
Лорен Файнер: Между нынешней ситуацией и судами над табачниками есть одна огромная разница. Когда речь идет о сигаретах, безопасной дозы не существует. Но в случае с соцсетями масса исследований показывает, что это не так: умеренное использование действительно дает позитивный или хотя бы нейтральный эффект. Главная проблема, о которой все говорят — это именно злоупотребление, компульсивное зависание в ленте. Соцсети реально помогают общаться с друзьями, поддерживать связь с теми, кто далеко. Но очевидно, что у них есть и темная сторона: если сидеть в них слишком много, можно, наоборот, выпасть из реальной жизни.
И это огромное отличие. Когда люди сравнивают соцсети с табаком, нужно понимать, что это не стопроцентное попадание. Тем не менее, мне кажется, эту аналогию приводят по другой причине: внутренние документы IT-корпораций наконец-то предают огласке в судах присяжных — точь-в-точь как это было с табачными гигантами. Вот в чем главная суть этого сравнения.
Нилай Патель: Кейси, мы с тобой много это обсуждали. Мы оба обязаны соцсетям своими карьерами. Идея о том, что интернет позволяет нам обойти цензоров и напрямую выйти к своей аудитории, для нас критически важна. Обратная сторона медали в том, что, черт возьми, куча плохих парней тоже получила возможность творить ужасные вещи. Где бы ты провел эту грань?
Кейси Ньютон: Это очень сложный вопрос, здесь нужны полутона. Лично я разделяю проблемы интернета и проблемы платформ. Нилай, именно интернет дал нам наши карьеры. Именно он разрушил монополию традиционных медиа и позволил мне, например, повесить виртуальную вывеску и сказать: «Эй, я буду писать вам письма за деньги». До эпохи интернета это было просто невозможно.
А вот проблемы платформ — это другое. Да, во многом они завязаны на алгоритмическое усиление контента. Но еще и на те самые дизайнерские фичи. На то самое чувство, о котором мы говорили: «Я не хочу сидеть в TikTok так долго. Я не знаю, как остановиться. Я пытался». Или: «Мне пришлось купить специальное устройство, которое превращает мой телефон в "кирпич", как только я переступаю порог дома». Это проблема создания платформы, единственная цель которой — заставить вас пялиться в экран столько, сколько физически способен выдержать человек. Вот почему именно эти механики наконец-то попали под микроскоп.
Мы не хотим уничтожать интернет. Мы не хотим лишать вас права высказывать свое мнение в сети. Мы хотим сломать эту машину, которая пожирает все больше нашего времени и внимания, заставляя нас чувствовать себя дерьмово.
Нилай Патель: Такова история этого суда. Компании пошли в суд и проиграли. Посмотрим, что будет дальше. Но главный вопрос сейчас — что они собираются с этим делать? Их признали ответственными за дизайн их продуктов. Очевидно, что теперь и внутри индустрии, и в США в целом начнется большая дискуссия о том, где проходит граница между свободой слова и продуктовыми фичами. Мы к этому еще вернемся.
Но пока им нужно что-то предпринимать. Нужно менять механику работы платформ, чтобы не нарваться на новые иски от тех, кто посмотрит на этот прецедент и скажет: «Отлично, мы тоже подаем на вас в суд». Кейси, звучит как классическая проблема для отделов доверия и безопасности (Trust and Safety), верно? Это же твоя аудитория, люди, с которыми ты общаешься чаще всего. Как они на это реагируют?
Кейси Ньютон: Их реакция крайне негативная. Особенно если говорить с людьми, которые до сих пор работают внутри платформ. Они отвечают: слушайте, даже если вы согласны с аргументами истцов, исправить ситуацию чертовски сложно. Допустим, мы верим, что эта девушка действительно провела кучу времени в соцсетях, и это превратило ее жизнь в ад. Окей. Какую конкретно функцию мы должны удалить, чтобы решить ее проблему? Если бы в Instagram* и YouTube не было автоплея, бесконечной ленты и пушей, улучшилось бы ее ментальное здоровье настолько, чтобы она не пошла в суд? Я не знаю.
Проблема нашего общества сейчас в том, что мы вообще не понимаем, что такое «безопасные соцсети». Мы не знаем, какие функции реально самые опасные. У нас есть догадки. Есть гипотезы, которые нужно тестировать. Но все не так просто: нельзя просто отключить автоплей и ждать, что все подростки дружно пойдут играть на улицу.
Нилай Патель: Или все предельно просто: вообще запретить подросткам в Австралии пользоваться соцсетями? (Отсылка к недавнему законопроекту в Австралии — прим. пер.)
Кейси Ньютон: Знаешь, что самое смешное? Я пишу про соцсети больше, чем о чем-либо другом, но даже я в шоке от того, насколько мои взгляды сейчас совпадают с идеями Джонатана Хайдта (социальный психолог, автор книги «Тревожное поколение» — прим. пер.). Потому что я тоже не знаю ответа. Я не знаю, от каких фичей нужно избавиться, чтобы обезопасить детей. Зато я точно знаю другое: никому внутри этих корпораций нет дела до ваших подростков. И я бы не доверил им их судьбу. Поэтому мне проще сказать: «Не разрешайте детям сидеть в соцсетях до 16 лет», потому что это гарантированно будет лучше, чем позволять им туда заходить.
Нилай Патель: Вот мы и услышали, как Кейси — человек, который плотно общается с сотрудниками IT-гигантов — буквально срывается из-за всей этой ситуации. Лорен, ты целыми днями общаешься с законодателями. Формально ты наш политический репортер в Вашингтоне, освещаешь работу Капитолийского холма (хотя в последнее время мы гоняем тебя по судам). Что делают политики в ответ на эти вердикты?
Лорен Файнер: Пока мы видим мощный пуш со стороны законодателей, которые лоббируют крупные реформы вроде «Закона о безопасности детей в интернете» (KOSA). Они говорят: «Эти суды лишь доказывают, что нам нужны новые законы. Либо нужно отменять старые, вроде Раздела 230, чтобы защитить детей». Сейчас это их главный аргумент. Но игра только началась.
Нилай Патель: Мне безумно интересно, куда сейчас качнется маятник. Появится ли противовес, кто-то, кто скажет: «Так, давайте притормозим. Дела, которые, как мы думали, никогда не пройдут через суды, внезапно выигрывают. И это происходит даже при работающем «Разделе 230», даже без принятия жестких законов вроде KOSA (Закона о безопасности детей онлайн)». Будет очень любопытно посмотреть, как развернется эта дискуссия: ускорит ли она процесс регулирования или, наоборот, затормозит.
Ладно. Я предупреждал вас обоих, что у меня тоже подгорает от всего этого. И Лорен, ты как раз затронула эту тему. Идея о том, что эти суды хоть как-то оправдывают принятие новых законов — законов, которые дадут государству право жестко цензурировать контент — сводит меня с ума.
Логика «В соцсетях есть аддиктивный дизайн, поэтому мы должны принять KOSA, который ограничит свободу слова маргинализированных групп» для меня вообще не бьется. Джош Хоули (сенатор-республиканец) заявляет: «Эти суды доказывают, что мы должны избавиться от Раздела 230». Я не могу понять, почему. В моей голове нет связи между «платформы оптимизированы под виральность, вовлеченность и негатив» и «давайте возложим на них ответственность за контент так, чтобы заставить их удалять еще больше информации». Я не могу связать эти вещи. А вы можете?
Кейси Ньютон: Нет. Вообще нет. Серьезно, я читал кучу интервью с политиками-республиканцами. Когда их спрашивают об этом, никто из них, похоже, не осознает одной вещи: если они реально отменят Раздел 230, платформы начнут маниакально перемодерировать все подряд. Компании будут в ужасе от того, что за любой чих на их площадке им может прилететь судебный иск. И республиканцы сами взвоют от этого. Это те самые ребята, которые ненавидят любую модерацию контента. А если удалить Раздел 230, модерации станет в разы больше. Так что нет, в этом нет никакого смысла.
Нилай Патель: Лорен, ты освещала и двухпартийные попытки реформировать Раздел 230, и попытки внедрить проверку возраста, и законы вроде KOSA. Какая позиция у демократов на этот счет?
Лорен Файнер: Многие демократы поддерживают KOSA и полностью за подобные изменения в законодательстве. Да, они слышат критику: им говорят, что закон может навредить маргинализированным группам или закрыть доступ к политически значимому контенту. Но они считают, что эти риски уже учтены в тексте закона. Мол, на практике ничего страшного не случится, поэтому они готовы двигаться дальше, считая это лучшим путем. Конечно, так думают не все демократы. Например, Рон Уайден, один из соавторов Раздела 230, KOSA не поддерживает.
Но в целом по этим вопросам существует широкая двухпартийная поддержка. И сейчас перед жесткими защитниками Раздела 230 (и противниками KOSA) стоит сложный вызов. Им нужно ответить себе на вопрос: мы будем стоять насмерть и блокировать любые изменения? Или мы понимаем, что перемены неизбежны, и нам нужно договориться о компромиссе, с которым мы сможем жить?
Нилай Патель: И вот тут для меня все становится реально сложным. Ребят, помогите мне разобраться с этими эмоциями, мы же тут как семья. Я смотрю на ситуацию: окей, корпорации проиграли крупный суд. Теперь они несут больше ответственности за то, что происходит на их платформах — пусть и в узком, продуктовом смысле. Но тут же появляется группа людей, которая заявляет: «Нет, вы в ответе вообще за все. Мы снесем Раздел 230, и вы будете отвечать за весь контент, который распространяете». Это приведет к еще большим рискам для компаний, и они начнут закручивать гайки еще сильнее.
Я думаю: «Ну, это плохо. Отменять Раздел 230 — это плохо». Я жил с этой мыслью лет двадцать. На The Vergeвышло бесконечное количество статей о том, почему сносить Раздел 230 опасно. А потом я делаю шаг назад и спрашиваю себя: «А почему, собственно, плохо?»
Мы все общались с сенатором Роном Уайденом. Он был у нас в подкасте. Лорен, ты вроде недавно брала у него интервью. Рон Уайден — отличный мужик. Крис Кокс, который писал 230-й раздел вместе с ним, тоже отличный парень. Но тот мир, который они пытались создать с помощью этого закона, так и не наступил. Его физически не существует. Этому закону 30 лет. Он писался в эпоху, когда миром правили AOL и группы новостей Usenet.
Их целью было создать конкурентный рынок модерации: предполагалось, что если вы хотите сделать интернет безопасным для детей, вы скачиваете специальную программу, ставите ее на свой комп, и она фильтрует весь трафик еще на входе. Но этого просто не произошло. Этого рынка никогда не было. И теперь я оказался в ситуации, когда от меня требуют отчаянно защищать 30-летний закон, чьи изначальные цели так и не были достигнуты. И я не понимаю, почему я должен это делать. Кейси, я знаю, ты тоже с этим борешься. Как мне ко всему этому относиться?
Кейси Ньютон: Да. У меня тоже все сложно. С одной стороны, я хочу, чтобы Раздел 230 существовал. Он позволяет платформам хостить политические дискуссии, вообще любой контент. Он делает интернет таким насыщенным, живым и интересным.
Но с другой стороны, есть одно дело по Разделу 230, за которым я, как гей, следил очень внимательно — дело про Grindr. Вы наверняка про него слышали. Суть такая: один ужасный тип решил отомстить своему бывшему. Он создал фейковый профиль на Grindr, загрузил туда его фото, слил домашний адрес и написал всем подряд: «Приезжайте к этому парню, он воплотит ваши самые безумные фантазии и угостит наркотиками». Жертва подает в суд на Grindr: «Это какой-то ад, вы обязаны что-то сделать». А Grindr в ответ: «Раздел 230». И все, дело закрывают.
Для жертвы это абсолютный кошмар. Окажись я на его месте, я бы тоже был в ярости на Grindr. Но в то же время, почему именно отмена Раздела 230 должна стать инструментом восстановления справедливости в таких случаях? Почему бы нам просто не начать воспринимать онлайн-домогательства и травлю всерьез на уровне страны? Вот так я пытаюсь сложить этот пазл: в целом Раздел 230 все еще поддерживает тот интернет, в котором я хочу жить. А что касается того вреда, который сейчас защищен этим законом (я не беру сейчас наш сегодняшний суд, это другое) — думаю, мы сможем найти иные юридические пути для его возмещения.
Но давайте проведем еще один мысленный эксперимент. Представьте, что мозговой центр Meta* собирается и говорит: «А как бы выглядел Instagram*, если бы он был идеально безопасным для подростков?» Как думаете, он был бы похож на тот Instagram*, который есть сейчас? Или это было бы что-то совершенно иное? Ставлю на второе. Это было бы вообще другое приложение. Мы не живем в таком мире, но представьте параллельную реальность, где топ-менеджеры Instagram* говорят: «Знаете что? Мы реально выпустим такую версию для тинейджеров. Смотрите: тут в основном образовательный контент. Никакой персональной алгоритмической ленты. Мы отключили все личные сообщения. А пользоваться им можно только днем».
Можно придумать миллион вещей, которые сделали бы продукт безопасным. Да, на каком-то уровне сложно нащупать идеальный Instagram*, за который Meta* не прилетит иск. Но с другой стороны, набросать его базовые контуры вполне реально. Мне безумно интересно: насколько далеко они готовы зайти по этому пути? Они же точно в панике от перспективы получить иски от каждого подростка в Америке. Или они просто придумают какую-нибудь очередную хитрую и грязную уловку, до которой я еще не додумался?
Нилай Патель: Ну, они же уже анонсировали «инструменты для юных пользователей», и их тут же смешали с грязью, обвинив в цинизме и попытках подсадить детей на крючок. У них вообще остался социальный капитал, чтобы выйти и сказать: «Поверьте, этот продукт безопасен»?
Кейси Ньютон: Нет. Мой нигилистичный взгляд на проблему Meta* в том, что все решится само собой, когда их просто вытеснит с рынка другая компания, которая окажется лучше в определенных аспектах. Но я не верю, что изменения придут изнутри. Единственное, что их волнует — это победа. А победа для них измеряется максимальным временем, которое вы проводите в их приложении.
Нилай Патель: Справедливости ради, Марк Цукерберг сейчас занят тем, что еженедельно нанимает и увольняет сотни исследователей ИИ. Опять же, ради какой-то великой, но пока не сформулированной цели. Идея, что он вдруг остановится и бросит все силы на создание безопасного Instagram* для детей... возможно, заставить его сделать это смогут только судебные иски, угрожающие самому существованию компании. Но честно, я сомневаюсь, что Марк Цукерберг — подходящее лицо для кампании по защите детей в Америке. Думаю, ответ — категорическое «нет».
Кейси Ньютон: Да. Его послужной список явно не располагает к тому, чтобы поручать ему этот проект. И я хочу подчеркнуть это для слушателей: для Meta* ваша зависимость — это показатель успеха. У них работают огромные команды когнитивистов, которые изучают человеческий мозг только ради одной цели — заставить вас брать телефон в руки и скроллить ленту как можно чаще.
Вот почему мне так жаль людей, которые злятся на себя за то, что убивают часы в Instagram*. Ребята, это был нечестный бой. Вы проиграли в игру, где карты были краплеными с самого начала. Meta* делает это не потому, что они Абсолютное Зло, а потому, что стимулы их бизнес-модели требуют от них именно этого. Так что пока не изменятся эти стимулы — нет, Нилай, мы не дождемся от Meta* морального лидерства в вопросах детской безопасности.
Нилай Патель: Последний кусок пазла, которого мы почти не касались, но он красной нитью проходит через все это — Первая поправка, свобода слова. Мы говорим о платформах, которые ежесекундно модерируют и контролируют гигантские объемы высказываний почти каждого жителя страны. И когда мы начинаем менять правила игры — за что платформы отвечают, как работают их алгоритмы, — мы напрямую вторгаемся в то, как в этой стране распространяется информация.
Множество людей построили целые бизнесы на понимании того, как алгоритмы Meta* делают контент вирусным. Можно по-разному относиться к качеству этих бизнесов и к тому, что они делают с мозгами подростков, но факт остается фактом: на горбу этих платформ выросли огромные компании.
Мы что, собираемся с разбегу влететь головой в Первую поправку? Это вообще возможно? Майк Масник, основатель Techdirt (отличный парень, недавно был у нас в шоу), считает, что это катастрофа для свободы слова. Журналистка Тейлор Лоренц (наша подруга) тоже уверена, что это катастрофа. Их аргумент прост: вы не можете отделить продукт от высказывания. Сам по себе продукт — ничто. Проблема именно в словах и смыслах, которые этот продукт распространяет.
Получается, пытаясь привлечь платформу за «продуктовый» вред, вы просто пытаетесь ввести цензуру с черного хода. Часть меня согласна с этим. Но Кейси, я знаю, ты считаешь, что мухи можно отделить от котлет.
Кейси Ньютон: Я согласен, что это тонкий лед и нам нужно быть очень осторожными. Судебные иски часто вообще не лучший инструмент для решения таких проблем. В идеале я бы хотел, чтобы законодатели разработали очень аккуратные и продуманные правила. Но с другой стороны: почему бесконечный скролл — это «свобода слова»? Почему Snapchat-стрики — это «слова»? Почему автоплей видео — это «высказывание»?
Доводя эту логику до абсурда, можно спросить: «Какое право мы имеем заставлять Ford ставить ремни безопасности? Это же ограничение свободы скорости!». Нет, это требование безопасности. Если становится очевидно, что в продукте есть конструктивный дефект, угрожающий безопасности, мы должны иметь право заставить компанию внедрить защиту.
Но при этом оговорюсь: есть вещи, которые я бы с радостью навязал платформам, но они абсолютно точно неконституционны. Например, я бы мечтал обязать их показывать детям образовательный контент — по аналогии с тем, как Конгресс когда-то заставил телеканалы транслировать минимум три часа образовательных программ в неделю.
Для общества это было круто. Но, как выяснилось, применить такое к соцсетям — прямое нарушение Конституции. Так что здесь реально нужно быть очень аккуратными. Но если вы всерьез пытаетесь убедить меня, что любая функциональная фича соцсети — это акт свободы слова, то вы защищаете эти корпорации так рьяно, что мне становится не по себе.
Нилай Патель: Лорен, я много думаю о том, что будет с Разделом 230 в мире, где платформы сами генерируют все больше контента с помощью нейросетей. Те же ИИ-ответы в поиске Google (AI Overviews) — это, по сути, уже высказывание самого Google, даже если оно скомпилировано из текстов миллионов людей с других сайтов. Хоть кто-нибудь из тех, кто сейчас пытается реформировать законы, учитывает эту проблему?
Лорен Файнер: Это Дикий Запад, и мы скоро там окажемся, вероятно, благодаря новым судебным искам. Но даже Рон Уайден, которого мы сегодня поминали уже сто раз, заявлял, что ИИ-генерация не обязательно подпадает под защиту Раздела 230. К этому, скорее всего, будут относиться иначе. Точно мы узнаем только тогда, когда появится реальный судебный прецедент, но это будет огромный вопрос.
Важно помнить: Раздел 230 — это всего лишь процедурный инструмент. Он просто позволяет рубить иски на корню. А то, как дела будут решаться по существу, зависит от Первой поправки. Так что, если вы не собираетесь заодно отменить Первую поправку, то простое уничтожение Раздела 230 вообще не решит тех проблем, о которых кричат его критики.
Кейси Ньютон: Хочу спросить, что вы оба думаете об одной вещи, потому что я сам до сих пор не могу с ней разобраться. Мы говорили о том, какая конкретно фича вызывает проблемы с психикой у Кейли и других ребят из этих «маркерных» дел. Подозреваю, что автоплей, скролл и бесконечные пуши играют свою роль. Но я уверен, что самый мощный фактор разрушения — это алгоритмическая персонализация.
Это когда ты один раз ищешь видео «как похудеть», и внезапно оказываешься в кошмарной цифровой пустоши, заваленной контентом про РПП (расстройства пищевого поведения). И это реально усугубляет депрессию и усиливает само РПП.
Как общество, мы же хотим это остановить? Мы не хотим, чтобы подростки проваливались в эту кроличью нору. Мы не хотим, чтобы они зарабатывали пищевые расстройства. Можем ли мы зарегулировать это на законодательном уровне?
Для меня это самый сложный вопрос. С одной стороны, я легко представляю, как Конгресс принимает закон: «Эй, если пользователю 16 лет или меньше, вы обязаны отключить алгоритмическую персонализацию на индивидуальном уровне. Окей, можете объединить их в группу и сказать: '16-летним американцам нравится такой контент, мы его покажем'. Но подсовывать контент лично Джону или Мэри, анализируя каждый их клик, запрещено, потому что мы не хотим, чтобы они провалились в токсичную воронку».
Но конституционно ли это с точки зрения Первой поправки? Я не знаю. Очень интересно услышать ваше мнение.
Нилай Патель: Я много об этом думал и постоянно вспоминаю наш разговор с Бараком Обамой в Decoder. Мы долго обсуждали с ним регулирование ИИ. И он заговорил об этом именно потому, что чувствовал, что они провалили задачу по регулированию соцсетей. В его голове эта связь была абсолютно четкой: «Мы облажались с соцсетями, так что обязаны все сделать правильно с искусственным интеллектом». Я тогда раз за разом спрашивал его про Первую поправку: «А как вы собираетесь ее обойти?»
В конце концов он ответил: «Слушай, вам просто нужна зацепка. Нужно найти юридический крючок, как мы нашли его в свое время для регулирования эфирного телевидения». С ТВ зацепка очевидна: радиочастотный спектр ограничен, это дефицитный общественный ресурс, поэтому мы имеем право вводить правила, чтобы убедиться, что он используется во благо.
Но в этой логике сразу видна опасность: сейчас у нас есть Брендан Карр (кандидат Дональда Трампа на пост главы Федеральной комиссии по связи), который получает власть над эфирным ТВ. И теперь в стране появляется неконтролируемый государственный цензор. И это очень плохо.
С другой стороны, фраза Обамы «Вам просто нужна зацепка» — это отражение юридического стандарта, который называется «строгий контроль» (strict scrutiny). Согласно ему, государство может ограничить свободу слова в обход Первой поправки, если закон узко направлен (narrowly tailored) на достижение критически важной государственной цели (compelling government interest).
Это конкретные прецедентные термины: «строгий контроль», «узко направлен», «критически важная цель». Я не хочу, чтобы куча 16-летних девочек страдала анорексией. Согласитесь, звучит как вполне себе «критически важная государственная цель». И под нее вполне можно прописать очень «узко направленное» правило.
Мне безумно интересно: это и есть наше будущее? Будущее, в котором государство скажет: «Этот контент причиняет вред. Вот вам одно-единственное правило, чтобы его остановить. Марк Цукерберг, у тебя есть мощь искусственного интеллекта. Заведи свои видеокарты, найди весь контент про РПП и выжги эти сообщества напалмом».
Лично я считаю, что это ужасно. Это так же плохо, как Брендан Карр в роли неконтролируемого цензора. Это просто масштабная государственная цензура. Но если Раздел 230 защищает платформы от массовых исков (поскольку, как говорит Лорен, это процедурный щит, кричащий «Вы вообще не можете подать на нас в суд!»), если истцам приходится танцевать с бубном, пытаясь доказать, что «во всем виноват продуктовый дизайн» (хотя никто не может точно сказать, какой именно)... В общем, я думаю, что куча регуляторов на уровне штатов рано или поздно скажет: «Слушайте, мы точно знаем, что некоторые вещи — это абсолютное зло. Мы примем запрещающие законы, дойдем с ними до Верховного суда и скажем: 'Эти законы узко направлены на достижение критически важной цели'».
Я не знаю, пойдет ли все именно по такому сценарию. Но подозреваю, что процесс уже пошел. Я абсолютно не уверен, что это хорошо, но именно так сейчас выглядит следующий запасной выход для государства. Потому что именно таков стандарт принятия законов, регулирующих свободу слова в этой стране.
Лорен Файнер: Кейси, ты задал абсолютно правильный вопрос про алгоритмы. Ведь гораздо проще доказывать, что проблема кроется в бесконечном скролле или автоплее — вроде бы это не имеет отношения к контенту. Это даже не выглядит как прямое решение платформы. Но то, как именно компания программирует свой алгоритм — что рекомендовать, а что пессимизировать — это уже осознанный выбор. И у нас уже есть решение Верховного суда, в котором сказано, что модерация контента по сути приравнивается к редакторскому усмотрению. Вот здесь начинается настоящая юридическая эквилибристика. Ты прав, именно эти алгоритмические механизмы и хотят изменить сторонники реформ, но юридически это самая сложная задача.
Нилай Патель: Наша журналистка Ади Робертсон недавно написала отличный текст для The Verge о том, как Америка отвернулась от Первой поправки. Мы все декларируем, что обожаем свободу слова. Но стоит копнуть чуть глубже, и выясняется, что каждый хочет чуть больше цензуры, чем было вчера. И со временем этот тренд только усиливается.
Даже те, кто кричат: «Обожаю Илона!», сейчас наблюдают за судебной перепиской между Марком Цукербергом и Илоном Маском (в рамках дела Сэма Альтмана). Цукерберг пишет: «Я удаляю любой контент, раскрывающий личности людей из DOGE (Департамент эффективности правительства)». А Илон, наш главный Воин Свободы Слова, отвечает: «Отлично! Не хочешь купить со мной OpenAI? Да, сноси все это». Цукерберг же при этом публично заявляет: «Я больше никогда не прогнусь под правительство», а сам строчит письма чиновникам: «Я зачищаю имена ваших сотрудников». По-моему, это просто шизофрения.
Кажется, мы входим в эпоху, когда давление государства на свободу слова сильно как никогда. И общество относится к этому терпимее, чем когда-либо. При этом мы продолжаем дружно делать вид, что свобода слова для нас — высшая ценность. Кейси, с точки зрения отделов Trust & Safety (доверия и безопасности) это выглядит как ночной кошмар. В начале второго срока Трампа ты писал, что специалисты по Trust & Safety впали в немилость, и больше никто не пытается отстаивать эти принципы. С тех пор прошло время. Как ситуация выглядит сейчас?
Кейси Ньютон: Да, я написал колонку под названием «Остался ли хоть кто-то, кто вступится за Trust & Safety?». Когда-то специалисты по безопасности были одним из самых громких голосов в IT-индустрии. Они продвигали отличные просоциальные, гражданские ценности. Они много говорили о правах человека и пытались встроить эти принципы во внутренние правила модерации. Я всегда симпатизировал им — в моих глазах это были «хорошие парни».
А потом к власти возвращается Трамп. По индустрии прокатывается волна увольнений. И буквально каждая платформа решает, что сейчас самое умное — это выслужиться перед новой администрацией. Всех этих ребят из Trust & Safety просто задвинули в дальний угол. Те, кто громче всех кричал о правах человека, испарились. И внезапно политику модерации в Meta* начинает определять кто-то вроде Джоэла Каплана. Его главная задача — сделать так, чтобы Дональду Трампу нравился Марк Цукерберг, и гарантировать, что они получат от администрации все, что захотят.
Кстати, это работает безотказно. Цукерберг уже получил от Трампа кучу преференций, и я уверен, дальше будет только больше. Когда вышла моя статья, на меня обрушился шквал критики от сообщества Trust & Safety. Я, по сути, бросил им вызов: «Эй, вы где? Вы собираетесь выйти к микрофону и сказать: "Ребята, то, что происходит с нашей индустрией — это катастрофа"?». А они ответили (и имели на это полное право): «У нас нет той власти, которую ты нам приписываешь. Когда мы начинаем говорить и наши имена становятся известны, нам шлют угрозы расправой. Нас травят так, что становится реально страшно. Ты просишь нас рискнуть жизнями ради этих принципов. Это слишком высокая цена». И они абсолютно правы.
И все же, прошел почти год, а вопрос никуда не делся. Когда эти люди замолчали, они фактически выдали олигархам карт-бланш на управление платформами так, как тем вздумается. И вот это пугает меня до чертиков. Отделы Trust & Safety больше не играют никакой реальной роли — это просто функция комплаенса, чтобы платформы не нарушали формальные требования законов. В итоге мы получили кучку олигархов, которые просто обмениваются услугами в Signal.
Нилай Патель: Лорен, хочу закончить разговор на тебе. Очевидно, что регулирующая машина сейчас работает на полных оборотах. У них появился козырь — вердикты, которые как минимум доказывают, что Meta* и YouTube наносят вред, а значит, можно действовать. Что, по-твоему, будет происходить дальше в законодательном поле?
Лорен Файнер: Мы увидим ожесточенные дебаты в Конгрессе о том, стоит ли принимать новые законы и отменять Раздел 230. Но основная движуха сейчас происходит на уровне штатов, и этот тренд, скорее всего, продолжится. В судах будут подаваться апелляции на эти решения. И параллельно с этим полетят новые иски. Только за тем делом в Лос-Анджелесе стоит еще более 1500 аналогичных исков. На подходе еще несколько таких же «маркерных» судов, они уже в расписании. Следующий — через пару месяцев. А в июне стартует абсолютно новая волна слушаний — уже на федеральном уровне.
Истцы — школьные округа, генпрокуроры штатов, частные лица. Этот каток не собирается тормозить. И даже если эти процессы ни к чему не приведут юридически, они уже сделали главное: вытащили на свет кучу внутренней информации о том, как работают эти корпорации. Они заставили широкую публику задуматься о том, с чем сталкиваются их дети, сидя в соцсетях.
Нилай Патель: Знаешь, это идеальное описание того, как сейчас все устроено в Америке. Штаты будут принимать хаотичную мешанину законов до тех пор, пока кто-нибудь не занесет лоббистам достаточно денег, чтобы протащить единый федеральный закон, который закроет проблему. Звучит максимально цинично и нигилистично, но именно так у нас все и работает. Вы двое видите какой-то выход из этого замкнутого круга?
Кейси Ньютон: Новейшая история подсказывает, что съезда с этой трассы нет. Опять же, все стимулы толкают компании к одному: заставить вас смотреть в экран так долго, как это физически возможно. Пока боль от этих стимулов (в виде штрафов и судов) не превысит выгоду от доходов и роста акций, никаких тектонических сдвигов не будет.
Нилай Патель: Лорен, а политики вообще чувствуют, что они застряли в этой петле обреченности?
Лорен Файнер: Да. Те законодатели, которые решили, что путь к спасению — это KOSA и отмена Раздела 230, сфокусированы только на этом. Я не вижу, чтобы кто-то пытался найти новые подходы к проблеме. Да, появляются идеи вроде проверки возраста на уровне магазинов приложений (App Store / Google Play), обсуждаются разные варианты — жесткая верификация документов или просто оценка вероятного возраста.
Но в целом политики уже определились с «решением», и дискуссия движется только по этим рельсам. Если кто-то хочет изменить механику этого разговора, им придется предложить принципиально новые решения или кардинально переосмыслить систему стимулов для бигтеха.
Нилай Патель: Под конец вброшу три свои идеи. Интересно, что вы о них думаете. Первое: я считаю, что нам давно нужен федеральный закон о конфиденциальности данных. Мне кажется, он никак не нарушает Первую поправку. Второе: Кейси, возвращаясь к твоему поинту об алгоритмической персонализации — думаю, если просто обязать компании сделать алгоритмы прозрачными, это уже решит огромную часть проблем. Покажите нам, почему вы показываете нам именно это. Раскройте механику.
И третье: обяжите их проводить внутренние исследования влияния платформ на психику и публиковать их. Чтобы у корпораций больше не было этого чудовищного стимула «меньше знаешь — крепче спишь» (и меньше рискуешь в суде).
Я смотрю на этот список и понимаю: «О, так это же европейский подход!». Я буквально описал то, что делает Европа. Хоть что-то из этого уже сработало в ЕС, или еще рано судить?
Кейси Ньютон: Пока рано делать выводы. Некоторые требования к прозрачности оказались полезными. Например, теперь там есть публичная база данных, куда платформы обязаны выгружать кучу своих решений по модерации. Думаю, это позитивный шаг. Но чего мы до сих пор не видим, так это консенсуса: какую именно проблему мы пытаемся решить и какие инструменты для этого реально подходят? Опять же, все буксует из-за того, что вопрос слишком тесно переплетен со свободой слова.
Нам нужно продолжать фокусироваться на том, в чем конкретно заключается проблема. А затем на базе этого попытаться прийти к согласию: какие эмпирически доказанные меры действительно защитят подростков от ужасных последствий. Мы должны бить в эту точку, иначе так и продолжим топтаться на месте.
Нилай Патель: Кейси пишет для Platformer и ведет подкаст Hard Fork вместе с Кевином Рузом (отличный подкаст, хотя они мои заклятые враги и я считаю, что их нужно объявить вне закона). Тексты Лорен можно читать на The Verge. Лорен, ты в последнее время так часто появляешься в Decoder. Спасибо, что снова пришла.
Пишите нам, что вы обо всем этом думаете. Я безумно жду вашего фидбека на этот эпизод. Потому что в отличие от большинства выпусков Decoder, сегодня, кажется, было очевидно: никто из нас до конца не понимает, что будет дальше. Или, что еще тревожнее — что должно быть дальше.
*Meta признана экстремистской организацией и запрещена на территории РФ.
*Instagram — продукт Meta, экстремистской организации, запрещенной на территории РФ.
