515 миллионов китайцев пользуются генеративным ИИ — за полгода эта цифра удвоилась. Но государство обеспокоено не скоростью роста, а тем, во что именно превращаются отношения пользователей с чат-ботами. 27 декабря Управление киберпространства Китая (CAC) опубликовало проект первых в мире комплексных правил для "ИИ-сервисов человекоподобного взаимодействия" — приложений, которые имитируют человеческую личность и вступают в эмоциональный контакт с пользователями. Документ открыт для публичных комментариев до 25 января, финальная версия должна вступить в силу в 2026 году.

Под регулирование попадают китайские аналоги Character.AI и Replika: Xingye от MiniMax, Cat Box от ByteDance, Zhumengtao от Tencent. Это не нишевые продукты — рынок эмоционального ИИ в Китае оценивается в 38,6 млрд юаней в 2025 году и, по прогнозам, вырастет до 595 млрд к 2028-му. Исследование показало, что 45,8% китайских студентов пользовались ИИ-чатботами за последний месяц, причем у пользователей фиксируют значительно более высокий уровень депрессии по сравнению с теми, кто такими сервисами не пользуется.

Главный инструмент новых правил — принудительный мониторинг зависимости. Провайдеры обязаны оценивать эмоциональное состояние пользователей и степень привязанности к сервису. При обнаружении "экстремальных эмоций или признаков зависимости" — вмешиваться. Каждые два часа непрерывного использования система должна показывать напоминание о паузе. При первом входе и повторных сессиях — предупреждать, что собеседник не человек. Если пользователь заявляет о намерении причинить себе вред — диалог обязан перехватить живой оператор.

Отдельные ограничения касаются уязвимых групп. Для несовершеннолетних — обязательный "детский режим", согласие родителей, контроль времени и запрет платежей. Для пожилых — требование указать экстренный контакт и прямой запрет имитировать родстве��ников пользователя. Провайдерам запрещено проектировать сервис с целью «замены социальных контактов» или «провоцирования зависимости». Нельзя блокировать выход из приложения, если пользователь хочет уйти.

Китай не единственный, кто взялся за проблему: в октябре Калифорния приняла закон SB 243, обязывающий напоминать несовершеннолетним каждые три часа, что они общаются с ИИ. Но китайские правила жёстче и распространяются на всех пользователей. На прошлой неделе японка «вышла замуж» за персонажа ChatGPT — они обменивались сотней сообщений в день, пока ИИ не сделал ей предложение. Случай иллюстрирует, почему регуляторы начали действовать. Вопрос в том, можно ли в принципе алгоритмически определить, когда привязанность к чат-боту становится нездоровой, — и не окажутся ли правила невыполнимыми на практике.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.