Десятилетиями технологические гиганты могли использовать юридический щит, позиционируя свои платформы как «нейтральные инструменты» для общения, а ответственность за любой вред перекладывая на самих пользователей или их родителей. Но всего за два дня в марте 2026 года этот карточный домик начал рушиться. В этой статье мы разберем два судебных решения, которые могут радикально изменить правила игры для всей цифровой индустрии. Instagram*, YouTube и другие соцсети впервые на таком высоком уровне были рассмотрены не как «доски объявлений», а как продукты, сознательно спроектированные для удержания внимания и потенциально — для формирования зависимости.

Важно понимать: каждое из этих дел — настолько масштабное, что само по себе тянет на отдельную большую статью. В них переплетаются вопросы права, архитектуры алгоритмов, поведенческой психологии, безопасности пользователей и ответственности платформ. Поэтому здесь мы сознательно не уходим в избыточные детали, а собираем общую картину — чтобы показать, что именно произошло, почему это важно и как эти процессы связаны между собой.

Цель этой вводной статьи — разложить по полочкам два ключевых судебных кейса и зафиксировать главный сдвиг: переход от идеи «платформа не отвечает за пользователей» к идее «компания отвечает за дизайн своего продукта и его последствия».

Во второй части мы разберем, что стоит за этим с технической точки зрения. Поговорим о том, как устроены алгоритмы рекомендаций, почему они способны формировать зависимость и на каких данных и моделях они работают. Осветим, как устроена модерация у IT-гигантов на уровне архитектуры и процессов. И отдельно посмотрим на три глобальные модели регулирования, которые уже формируются в разных странах.

Мы стоим на пороге большого передела «экономики внимания» и то, как мы пользуемся интернетом сегодня, завтра может уйти в историю.

Юридический фундамент: что такое Статья 230

Для начала осветим ключевой правовой инструмент, который позволял крупнейшим цифровым платформам оставаться практически неприкосновенными последние три десятилетия. Речь идет о Section 230 — это часть американского закона 1996 года («Акт о приличии в коммуникациях»), которая стала фундаментом современного интернета. Ее суть в одном предложении: «Ни один поставщик интерактивных компьютерных услуг не может рассматриваться как издатель информации, предоставленной другим лицом».

Простыми словами: Если пользователь Вася опубликует в Facebook* клевету или призыв к насилию, в суд можно подать на Васю, но нельзя подать на Facebook. Соцсеть здесь — это просто «доска объявлений», а не газета, которая отвечает за каждое напечатанное слово.

Это те самые «26 слов, которые создали интернет». Именно эта формулировка позволяла компаниям десятилетиями утверждать, что они — лишь технические посредники, которые не несут ответственности за контент, созданный пользователями.
Это те самые «26 слов, которые создали интернет». Именно эта формулировка позволяла компаниям десятилетиями утверждать, что они — лишь технические посредники, которые не несут ответственности за контент, созданный пользователями.

Юристы часто делят эту статью на две функции:

  • Щит (Защита от ответственности): Платформа не несет ответственности за то, что пишут пользователи (клевету, призывы к насилию и т.д.). Ответственность лежит на авторе.

  • Меч (Право на модерацию): Платформа может модерировать контент без страха, что ее засудит тот, чей пост удалили.

Именно благодаря этому закону в 1990-е и 2000-е годы расцвели соцсети, форумы и YouTube: они могли расти, не боясь разориться на судебных исках за каждое слово пользователя.

Почему сейчас этот «щит» трещит по швам?

В делах, о которых мы расскажем дальше, адвокаты истцов совершили гениальный юридический маневр. Они сказали:

«Мы не судим Meta* за то, ЧТО опубликовал педофил или ЧТО запостил фуд-блогер. Мы судим Meta* за то, КАК спроектирован их продукт».

Разница между «Контентом» и «Дизайном»:

  • Контент (защищен Статьей 230): Фотография экстремально худой модели в Instagram*. Соцсеть не несет ответственности за то, что модель выложила это фото, назвав свою фигуру идеалом, к которому стоит стремиться.

  • Дизайн (НЕ защищен, согласно новым вердиктам): Алгоритм, который замечает, что 13-летняя девочка просмотрела одно фото диеты, и начинает «бомбардировать» ее похожим контентом 24/7, провоцируя развитие анорексии.

Суд признал: Алгоритм рекомендаций — это авторский продукт самой компании, а не сторонний контент. Следовательно, Статья 230 на него не распространяется.

Почему это знаковое событие?
Потому что во многом именно эти эффективные алгоритмы рекомендаций и заставляют пользователей проводить в соцсетях часы напролет. Ведь если контент не будет интересен пользователю, то и смысла листать бесконечную ленту попросту нет.

Два вердикта, которые изменят правила игры

Мы начнем с самого свежего судебного решения — того, что был вынесен всего на один день позже другого громкого процесса.

K.G.M. v. Meta Platforms*, Inc. et al.

25 марта 2026 года в Верховном суде округа Лос-Анджелес завершился один из самых важных процессов против технологических гигантов. Истцом выступила 20-летняя девушка по имени Кейли (в судебных материалах она фигурирует как K.G.M. или Kaley), жительница города Чико в Калифорнии. Ответчиками стали две крупнейшие компании — Meta Platforms*, владелец Instagram*, и Google, владелец YouTube. Изначально в иске также участвовали TikTok и Snapchat, но эти компании вышли из дела, заключив досудебные соглашения. Присяжные рассматривали только Instagram* и YouTube.

Кейли обвиняла ответчиков в том, что алгоритмы и сам дизайн Instagram* и YouTube были сознательно спроектированы так, чтобы вызывать сильнейшую зависимость, особенно у подростков. Она начала пользоваться YouTube в шесть лет, а Instagram* — в девять. К десяти годам у нее уже начались серьезные проблемы с психикой, а к тринадцати годам диагностировали дисморфофобию — навязчивые мысли о физическом недостатке или уродливости своего тела, тяжелую депрессию и суицидальные мысли. Девушка проводила в приложениях до шестнадцати часов в сутки, игнорируя школу, семью и реальную жизнь. По ее словам, продукты компаний проектировались с учетом психологических механизмов удержания внимания — алгоритмы рекомендаций, бесконечная лента, уведомления и другие функции. В суде Кейли доказывала, что компании знали о рисках для психического здоровья, особенно для несовершеннолетних, но не предприняли достаточных мер защиты.

Глава Meta* Марк Цукерберг лично предстал перед судом в феврале, чтобы защитить свою компанию.
Глава Meta* Марк Цукерберг лично предстал перед судом в феврале, чтобы защитить свою компанию.

После семи недель слушаний и девяти дней совещаний присяжные вынесли единогласный вердикт в пользу Кейли. Они признали, что Instagram* и YouTube — это не нейтральные сервисы, а системы, сознательно спроектированные для удержания пользователей любой ценой. Суд установил, что компании знали о рисках для психического здоровья подростков, но не предприняли достаточных мер, чтобы их предотвратить. Присяжные согласились, что Meta* и Google понимали опасность для психики молодых людей и недостаточно учитывали эти риски в своем дизайне.

В итоге суд обязал Meta* и Google выплатить Кейли 6 млн долларов — 3 млн компенсаторных за причиненный вред и 3 млн штрафных, чтобы наказать компании за осознанные действия. Ответственность распределили так: Meta* несет 70%, Google — 30%.

Что именно признали «вызывающим зависимость»:
Присяжные прямо указали на следующие механизмы:

  • Персонализированные алгоритмы, которые усиливают дофаминовую петлю (контент → реакция → еще более точный и притягательный контент).

  • Механики бесконечного скролла и автопроигрывания, которые не дают естественной точки остановки.

  • Система лайков и уведомлений как мощные поведенческие триггеры.

Именно здесь уместно говорить о поведенческой психологии, которую соцсети активно используют для разработки дизайна своих продуктов.
— Бесконечная лента в сочетании с автоплеем убирает любой естественный момент, когда мозг мог бы сказать «хватит».

— Персонализация через алгоритмы делает контент максимально чувствительным к эмоциональным уязвимостям конкретного пользователя, затягивая его в воронку глубоко релевантного, но часто деструктивного материала.
— Переменное вознаграждение означает, что награда в виде лайков или интересных постов приходит непредсказуемо. Когда человек открывает приложение, он не знает, увидит ли сейчас что-то очень смешное, тревожное, приятное или важное лично для него. Но сама возможность получить такую «награду» через еще один скролл заставляет продолжать. На техническом уровне это усиливается тем, что алгоритм подстраивается под пользователя в реальном времени: достаточно задержаться на одном ролике о расставании, младенцах, внешности или милых котиках, и система очень быстро наполняет ленту похожими темами.
— Пуш-уведомления и красные бейджи — маленькие красные кружки с цифрами на иконках — специально выбраны так, чтобы вызывать сигнал тревоги и важности. Они работают как незавершенное действие: человеку хочется «закрыть гештальт» и проверить, что именно он пропускает.

— Еще один мощный механизм — FOMO, fear of missing out, страх упустить что-то важное, усиливается через сторис, исчезающие публикации, временные форматы и ощущение, что важное происходит прямо сейчас и потом исчезнет. В результате пользователь заходит «на минуту проверить», а остается надолго, потому что дизайн сервиса все время подталкивает его к следующему действию.

В Meta* и Google работают штатные поведенческие исследователи, UX‑специалисты и data scientists, которые применяют принципы поведенческой экономики. Один из ключевых подходов — модель поведения Б. Дж. Фогга, согласно которой поведение (B) является произведением мотивации (M), способности (A) и триггера/подсказки (P). Соцсети сознательно повышают мотивацию, подсовывая эмоционально заряженный контент; снижают способность сопротивляться, делая взаимодействие максимально легким (скролл, автоплей); и добавляют мощные триггеры в виде уведомлений. Весь дизайн тестируется через A/B‑тесты, и в итоге выбираются те варианты интерфейса, которые увеличивают время пребывания пользователя в приложении — даже если эти варианты ухудшают психологическое состояние уязвимых групп.

Брайан Джеффри Фогг — американский исследователь поведенческого дизайна, психолог и преподаватель Стэнфордского университета. Он основал Behavior Design Lab, где изучает, как цифровые технологии и среда могут способствовать устойчивым изменениям в поведении людей. Фогг известен как автор методики Tiny Habits («Нанопривычки»), популярной во всем мире. Модель поведения Б.Дж. Фогга (Fogg Behavior Model, FBM) утверждает, что для совершения действия (поведения) необходимы три элемента одновременно: высокая мотивация (M), высокая способность/легкость (A) и триггер/подсказка (P). Формула звучит как B=MAP (Behavior = Motivation + Ability + Prompt). Если поведение не происходит, значит, отсутствует хотя бы один из элементов, например, задача слишком сложна или стимул не работает.
Брайан Джеффри Фогг — американский исследователь поведенческого дизайна, психолог и преподаватель Стэнфордского университета. Он основал Behavior Design Lab, где изучает, как цифровые технологии и среда могут способствовать устойчивым изменениям в поведении людей. Фогг известен как автор методики Tiny Habits («Нанопривычки»), популярной во всем мире. Модель поведения Б.Дж. Фогга (Fogg Behavior Model, FBM) утверждает, что для совершения действия (поведения) необходимы три элемента одновременно: высокая мотивация (M), высокая способность/легкость (A) и триггер/подсказка (P). Формула звучит как B=MAP (Behavior = Motivation + Ability + Prompt). Если поведение не происходит, значит, отсутствует хотя бы один из элементов, например, задача слишком сложна или стимул не работает.

Таким образом, вердикт по делу Кейли не только присудил компенсацию конкретному человеку, но и зафиксировал беспрецедентный прецедент: технологии, основанные на поведенческой психологии и направленные на формирование зависимости, не могут прикрываться статусом «нейтральной платформы». Решение присяжных в Лос‑Анджелесе стало мощным сигналом для всей индустрии, показав, что дизайн, манипулирующий вниманием, влечет за собой реальную судебную ответственность.

Почему это переломный момент?

Вердикт по делу Кейли важен не только присужденной компенсацией, но и тем, как он меняет саму юридическую рамку, в которой существуют социальные сети. До сих пор технологические гиганты в США были надежно защищены Section 230. Суд в Лос‑Анджелесе пробил брешь в этой защите, причем сразу по двум направлениям. Во‑первых, присяжные согласились, что проблема заключается не в отдельных постах или видео, а в самой архитектуре платформ: бесконечной прокрутке, автоматическом воспроизведении, персонализированных алгоритмах рекомендаций. Это — сознательные инженерные решения самих компаний, а не чужие публикации. Во‑вторых, суд признал, что зависимость от соцсетей — это не гипотеза, а реальный ущерб здоровью, за который компании должны платить. Таким образом, впервые на таком уровне соцсети перестали рассматриваться как «нейтральные площадки» и были признаны продуктами с предсказуемыми вредными эффектами. Юридическая рамка смещается: от «мы не отвечаем за то, что делают пользователи» к «вы отвечаете за то, как ваши продукты влияют на пользователей».

Этот сдвиг не означает автоматического проигрыша Meta* и Google во всех аналогичных исках, но создает мощный прецедент. Теперь адвокаты, представляющие других пострадавших, могут опираться на аргумент, который уже признан судом присяжных: дизайн, вызывающий зависимость, — это не побочное явление, а часть продукта, за которую разработчик несет ответственность. Кроме того, вердикт ослабляет защиту, которую технологические компании традиционно получали по Section 230, поскольку обвинение строилось не вокруг пользовательского контента, а вокруг собственных решений платформ. В этом смысле дело Кейли становится ориентиром для сотен аналогичных исков, ожидающих рассмотрения по всей стране.

Какие последствия можно ожидать?

Многие эксперты уже проводят параллель с тем, что происходило с табачной индустрией несколько десятилетий назад. Табачные компании годами отрицали вред своей продукции, но в итоге их заставили платить миллиардные штрафы, размещать предупреждения на пачках и отказаться от самых агрессивных методов продвижения. Сейчас социальные сети находятся на том же перепутье. И хотя Meta* и Google уже заявили, что будут подавать апелляцию (Meta* настаивает, что одно приложение не может стать причиной кризиса психики, а Google — что YouTube вообще не является соцсетью), сам факт того, что присяжные отклонили эти аргументы, говорит о смене общественных и юридических ожиданий.

Последствия этого вердикта могут быть самыми разными. В первую очередь следует ожидать волну новых исков от других пострадавших пользователей — как индивидуальных, так и коллективных. Одновременно усиливаются позиции сторонников жесткого регулирования соцсетей в США, Великобритании, Австралии (где уже запретили соцсети для детей младше 16 лет) и других странах. Регуляторы могут потребовать от платформ не просто «инструментов родительского контроля», а принципиальных изменений дизайна: отказа от бесконечной ленты, автоплея, алгоритмических рекомендаций, которые подталкивают к потреблению опасного контента. Не исключено, что в будущем в соцсетях появятся обязательные предупреждения о вреде для психического здоровья — по аналогии с сигаретными пачками.

С 12 июня 2013 года в России начали печатать устрашающие картинки на пачках сигарет, согласно приказу Минздравсоцразвития от 5 мая 2012 года. С 1 марта 2026 года на обложках книг, где упоминаются запрещённые вещества или их аналоги, появились предупреждения о вреде наркотиков — теперь издания визуально напоминают пачки сигарет. Возможно, следующий шаг — соцсети, и вскоре при входе в приложение мы также будем видеть предупреждение о вреде для психического здоровья.
С 12 июня 2013 года в России начали печатать устрашающие картинки на пачках сигарет, согласно приказу Минздравсоцразвития от 5 мая 2012 года. С 1 марта 2026 года на обложках книг, где упоминаются запрещённые вещества или их аналоги, появились предупреждения о вреде наркотиков — теперь издания визуально напоминают пачки сигарет. Возможно, следующий шаг — соцсети, и вскоре при входе в приложение мы также будем видеть предупреждение о вреде для психического здоровья.

Важно понимать, что вердикт по делу Кейли — это не финальная точка. Он вынесен присяжными, и у Meta* с Google есть право на апелляцию, которую они уже анонсировали. Кроме того, каждое последующее дело будет рассматриваться отдельно, и само по себе это решение не означает автоматической вины компаний во всех остальных случаях. Тем не менее, сигнал для всей индустрии крайне серьезный: эпоха, когда дизайн соцсетей можно было строить без оглядки на долгосрочный вред для пользователей, больше не выглядит неуязвимой.

Теперь мы переходим ко второму, не менее значимому, но гораздо более шокирующему делу.

State of New Mexico v. Meta Platforms, Inc.

24 марта 2026 года присяжные в Санта-Фе, штат Нью-Мексико, вынесли первый в истории США вердикт против Meta* на уровне штата по делу о безопасности детей. Компанию оштрафовали на 375 миллионов долларов. Это был уже не частный иск одной девушки, а полноценный иск целого штата с огромной доказательной базой.

В чем обвиняли Meta*

Иск против Meta Platforms Inc. подал Генеральный прокурор Нью-Мексико Рауль Торрес (Raúl Torrez) еще в декабре 2023 года. Дело рассматривалось по закону штата о недобросовестной торговой практике (Unfair Practices Act), который защищает потребителей от обмана и вредных бизнес-практик.

Генеральный прокурор Нью-Мексико Рауль Торрес.
Генеральный прокурор Нью-Мексико Рауль Торрес.

В основе дела лежала позиция штата, что Meta* не просто недостаточно хорошо боролась с рисками, а знала о них, понимала масштаб проблемы и при этом продолжала публично говорить о безопасности своих сервисов так, будто ситуация находится под контролем. Рауль Торрес подал иск в 2023 году, и прокуратура строила обвинение вокруг двух главных линий:
— Во-первых, компания сознательно вводила родителей и детей в заблуждение о безопасности своих платформ (Facebook*, Instagram* и WhatsApp*). Публично Meta заявляла, что «заботится о детях», а внутри прекрасно знала о рисках и скрывала эту информацию.
— Во-вторых, платформы стали «цифровым рынком» для торговли материалами с сексуальным насилием над детьми (CSAM). Компания, по версии штата, позволяла своим сервисам становиться средой, где сексуальные хищники могли находить несовершеннолетних, вступать с ними в контакт и переводить онлайн-общение в реальную угрозу.

Параллельно штат утверждал, что Meta* скрывала известные ей риски для психического здоровья детей и подростков.

Именно поэтому это дело отличалось от калифорнийского процесса по делу Кейли. В Лос-Анджелесе в центре внимания была в первую очередь зависимость и вред для психики, а в Нью-Мексико суд разбирал более широкий и мрачный набор претензий: сексуальную эксплуатацию детей, вводящие в заблуждение публичные заявления о безопасности и эксплуатацию уязвимости несовершеннолетних как особенно незащищенной аудитории. Присяжные согласились не только с тем, что Meta делала ложные или вводящие в заблуждение заявления, но и с тем, что компания занималась так называемой unconscionable trade practice, то есть недобросовестной практикой, которая несправедливо использует уязвимость и неопытность детей.

Штат изначально требовал более 2 миллиардов долларов, но присяжные насчитали около 75 000 нарушений и назначили максимальную ставку — 5 000 долларов за каждое. В итоге получилась ровно 375 миллионов. Это не компенсация жертвам, а гражданский штраф в пользу штата.

Доказательная база обвинения

Ключевой доказательной базой стало расследование под прикрытием, известное как Operation MetaPhile, которую офис Торреса провел в 2023 году. Это была полноценная подставная операция, аналогичная тем, что проводят при борьбе с организованной преступностью. Следователи создали несколько фейковых аккаунтов в Facebook* и Instagram*, выдававших себя за детей младше 14 лет. Аккаунты были оформлены так, чтобы не оставлять сомнений в возрасте: использовались фотографии детей, школьная тематика в постах, биографии с упоминанием возраста. Эти профили не вели себя как провокаторы и не инициировали сексуальные разговоры сами. Их задача была простой: посмотреть, что произойдет, если на платформе появится аккаунт, внешне похожий на детский.

Результат оказался шокирующим: аккаунты-приманки быстро «затапливали» сообщениями от взрослых мужчин. Хищники сами находили профили через поиск, алгоритмические рекомендации, группы или функцию «друзья друзей». Разговоры почти сразу обретали сексуальный характер: просьбы прислать фото, отправка своих гениталий, обсуждение половых актов, фантазии о насилии. Некоторые переходили к попыткам реальной встречи, и тогда следователи устраивали «ловушку». В одном из случаев Meta* даже не пометила аккаунт матери, пытавшейся продать свою дочь для торговли людьми. Расследование привело к уголовным обвинениям против нескольких лиц, арестованных в ходе операции.

С технической и юридической точки зрения эта операция была для штата очень сильным ходом. В подобных делах корпорации часто пытаются свести спор к абстрактной статистике или к позиции, что речь идет о действиях отдельных преступников, а не о проблеме самой платформы. Торрес сделал иначе: он принес в суд не только отчеты и экспертные оценки, но и реальные, документированные эпизоды, где платформа Meta выступала как среда, через которую хищники находили предполагаемых детей, писали им, отправляли откровенные материалы и пытались назначать встречи. Это позволяло прокуратуре говорить уже не о теоретическом риске, а о наглядном и опасном сценарии, который происходил в реальности.

В ходе шестинедельного судебного процесса присяжные увидели масштабную доказательную базу:
— Им показывали внутренние документы Meta*, где сотрудники и внешние эксперты предупреждали о рисках.
— Были представлены записи видеодопроса Марка Цукерберга, в которых он ссылался на усилия по улучшению безопасности, но сказал: «Я не уверен, что есть необходимость сообщать о каждом улучшении, которое мы делаем».
— Суд заслушал свидетельства учителей о том, как соцсети влияют на школьников, включая схемы сексуального вымогательства (sextortion).
— Эксперты дали заключения о том, что функции вроде бесконечной прокрутки (infinite scroll) и автовоспроизведения способствуют зависимости, ведущей к депрессии, тревожности и самоповреждению.
— Особое внимание было уделено внутренним документам, которые показывали, что Meta* оценивала масштаб проблемы в 100 000 детей в день, подвергающихся харассменту на ее платформах, но не предпринимала системных изменений.

Что Meta говорила в свою защиту

В свою защиту Meta* выдвинула несколько аргументов:

— Компания заявила, что никогда не обещала абсолютной безопасности и всегда раскрывала, что платформами могут злоупотреблять злоумышленники.
— Адвокаты Meta* подчеркивали, что компания вкладывает значительные ресурсы в безопасность, удаляет вредоносный контент и аккаунты нарушителей. Представители компании после вердикта заявили, что Meta* усердно работает над защитой пользователей, открыто говорит о сложности выявления и удаления нарушителей и не согласна с выводами присяжных.
— Компания также настаивала, что многие цитаты из внутренних документов вырваны из контекста, а сама логика обвинения пытается возложить на платформу ответственность за поведение третьих лиц.
— Главным юридическим щитом должна была стать Section 230, которая, по мнению защиты, освобождает Meta* от ответственности за пользовательский контент, а все обвинения неотделимы от контента. Но здесь штат Нью-Мексико сознательно строил иск так, чтобы спор был не столько о конкретном пользовательском контенте, сколько о собственных заявлениях Meta*, об архитектуре безопасности и о том, как компания проектировала и управляла платформой. Именно эта стратегия помогла довести дело до присяжных и получить вердикт против компании.
— Особое значение в процессе имели свидетельства того, что сотрудники Meta* неоднократно предупреждали руководство о рисках. В суде зачитывались внутренние письма специалистов по безопасности, которые годами предупреждали о проблеме. Они требовали внедрить жесткую верификацию возраста, изменить алгоритмы, которые помогали хищникам находить детей, и усилить модерацию. Однако руководство, включая Марка Цукерберга, игнорировало эти требования, опасаясь, что усиление безопасности снизит темпы роста аудитории и вовлеченность. Прокуроры также доказали, что решение Meta* ввести сквозное шифрование (end-to-end encryption) в мессенджерах сделало практически невозможным отслеживание преступников, о чем компанию предупреждали правоохранительные органы по всему миру.

Почему это «переломный момент»?

Вердикт в Нью-Мексико стал важнейшим юридическим прецедентом. Если дело в Лос-Анджелесе, выигранное Кейли на следующий день, касалось в основном аддиктивности и влияния на психику, то процесс в Нью-Мексико вскрыл гораздо более темную сторону работы соцсетей — их роль в содействии сексуальной эксплуатации детей. Вместе эти два вердикта, вынесенные с разницей в один день, создали юридический прецедент «идеального шторма»: Нью-Мексико доказал, что Meta — это небезопасная среда, где дети подвергаются физической опасности, а Лос-Анджелес доказал, что продукты Meta — это опасные платформы, вызывающие психологическую зависимость. После вердикта дело переходит во вторую фазу: 4 мая 2026 года начнется рассмотрение по существу (bench trial), где штат будет доказывать, что Meta создала публичную угрозу (public nuisance), и потребует принудительных исправительных мер, включая эффективную верификацию возраста, удаление хищников и защиту несовершеннолетних в зашифрованных коммуникациях.

*Компания Meta Platforms Inc. (владелец Instagram и Facebook) признана экстремистской организацией и её деятельность запрещена на территории Российской Федерации решением Тверского районного суда города Москвы от 21 марта 2022 года.