Future of Life Institute опубликовал зимний выпуск AI Safety Index — независимого аудита безопасности восьми ведущих ИИ-компаний мира. Панель из восьми экспертов, включая профессора Стюарта Рассела из Беркли, оценила Anthropic, OpenAI, Google DeepMind, xAI, Z.ai, DeepSeek, Alibaba Cloud и Meta* (признана экстремистской в РФ) по 35 индикаторам в шести доменах. Главный вывод неутешителен: ни одна компания не получила оценку выше C+ — фактически "тройки с плюсом".

Тройка лидеров сохранила позиции с прошлого выпуска: Anthropic возглавляет рейтинг с результатом C+ (2.67 балла), за ней следуют OpenAI (C+, 2.31) и Google DeepMind (C, 2.08). При этом Anthropic лидирует во всех шести доменах оценки. Между топ-3 и остальными компаниями — существенный разрыв: xAI, Z.ai, DeepSeek и Alibaba Cloud получили оценки D и D-, сгруппировавшись в диапазоне 0.98–1.17 балла.
Главным провалом всей индустрии эксперты называют домен "экзистенциальная безопасность" — готовность к катастрофическим рискам вроде потери контроля над сверхразумом. Здесь ни одна компания не поднялась выше D второй год подряд, а пять из восьми получили F. Парадокс в том, что те же компании публично заявляют о планах создать AGI в ближайшие 2–5 лет. Эксперты называют это "фундаментальным лицемерием": амбиции растут, а убедительного плана контроля нет ни у кого.
В других доменах тоже хватает проблем. По приватности: все оцениваемые компании по умолчанию используют данные из переписок с пользователями для обучения моделей — Anthropic перешла к этой практике в августе 2025 года, лишившись прежнего преимущества. По защите информаторов только OpenAI имеет публичную политику, а у DeepSeek и Z.ai нет даже внутренних механизмов (речь о том, может ли сотрудник доложить, если считает, что компания разрабатывает опасную технологию). По бенчмаркам безопасности: xAI показала худший результат на HELM AIR Benchmark — 0.40 против 0.90–0.93 у лидеров.
Отдельный парадокс связан с китайскими компаниями. DeepSeek и Alibaba Cloud получили низкие общие оценки и не имеют публичных фреймворков безопасности (оценка F в этом домене). Однако эксперты отметили, что китайское регулирование обязывает их маркировать ИИ-контент водяными знаками и отчитываться об инцидентах перед властями — требования, которых нет у западных конкурентов.
Эксперты FLI резюмируют: индустрия наращивает возможности моделей быстрее, чем учится их контролировать. Даже лидеры не дотягивают до стандартов EU AI Code of Practice. Рекомендации авторов отчёта — перейти от размытых обещаний к количественным порогам риска, обеспечить реальную независимость внешних аудиторов и внедрить механизмы остановки разработки при превышении критических показателей.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
