
Федеральный апелляционный суд округа Колумбия 8 апреля 2026 года отклонил запрос компании Anthropic, разработчика ИИ-модели Claude, о временной блокировке решения Пентагона, внесшего её в чёрный список как угрозу национальной безопасности и цепочке поставок, сообщает CNBC.
Суть конфликта между Anthropic и Министерством обороны США ещё предстоит разобрать в суде по существу – компания продолжает оспаривать само включение в санкционный перечень. Однако апелляционная инстанция отказала в приостановке ограничений на время разбирательства.
“С одной стороны, есть относительно ограниченный риск финансового ущерба для одной частной компании. С другой – речь идёт о судебном урегулировании того, как и через кого Военное министерство получает доступ к жизненно важным технологиям ИИ во время активного военного конфликта”, – говорится в решении суда.
При этом ранее другой суд – в Сан-Франциско – встал на сторону Anthropic, запретив администрации Трампа принудительно убирать модель Claude из всех госструктур. В итоге сложилась парадоксальная ситуация: компания исключена из контрактов Пентагона (и подрядчики DOD не могут использовать её ИИ в работе с военными), но при этом она может сотрудничать с другими федеральными ведомствами, пока тяжба продолжается.
Представитель Anthropic после вердикта апелляционного суда заявил, что компания “признательна суду за признание необходимости быстрого разрешения спора” и уверена, что “в конечном итоге суды согласятся с незаконностью этих санкций”.
В марте 2026 года министр обороны США Пит Хегсет объявил Anthropic угрозой цепочке поставок – статус, который исторически применялся только к иностранным противникам. Anthropic стала первой американской компанией, получившей такую честь. Практически одновременно президент Дональд Трамп написал в Truth Social, приказав федеральным агентствам “немедленно прекратить” использование технологий Anthropic (с шестимесячным переходным периодом для DOD).
Хотите быть в курсе важных новостей из мира ИИ? Подписывайтесь на наш Telegram‑канал BotHub AI News.
