Пентагон рассматривает возможность разрыва контракта на $200 млн с Anthropic после того, как стало известно об использовании Claude в военной операции по захвату бывшего президента Венесуэлы Николаса Мадуро. По данным Axios, высокопоставленный чиновник администрации Трампа заявил: "Мы обязаны пересмотреть партнерство с любой компанией, которая ставит под угрозу оперативный успех наших бойцов".

Поводом для обострения стал, по версии Axios, звонок Anthropic в Пентагон с вопросом, использовался ли Claude при рейде на Мадуро. Чиновники восприняли это как сигнал, что компания может не одобрить подобное применение своей модели — и пришли в ярость. Anthropic все отрицает: представитель компании заявил, что она не обсуждала с Министерством обороны использование Claude в конкретных операциях. Сама модель была развернута в засекреченных сетях через платформу Palantir Technologies и, по данным источников Axios, применялась не только при планировании, но и во время активной фазы операции.

Конфликт между Anthropic и Пентагоном тянется уже несколько месяцев. Министерство обороны требует от четырех AI-компаний — OpenAI, Google, xAI и Anthropic — развернуть модели в засекреченных сетях на условиях all lawful uses, то есть без стандартных ограничений. Три компании согласились. Anthropic — единственн��я, кто отказался, настаивая на двух красных линиях: запрет на использование Claude для управления полностью автономным оружием и для массовой слежки за американцами. Министр обороны Пит Хегсет ранее заявлял, что Пентагон не будет работать с ИИ-моделями, которые "не позволяют вести войны".

Парадокс в том, что Claude — единственная из четырех моделей, уже работающая в засекреченных контурах Пентагона. ChatGPT, Gemini и Grok доступны военным только через незасекреченную платформу GenAI.mil, которой пользуются более миллиона сотрудников. То есть компания, которая сопротивляется сильнее всех, проникла в военную инфраструктуру глубже всех — и теперь первой рискует быть отключенной. По данным Axios, ситуацию осложняет и внутренний конфликт: инженеры Anthropic выступают против расширения сотрудничества с военными, что ограничивает переговорную гибкость руководства.

Конфликт разворачивается на фоне рекордного раунда: на этой неделе Anthropic закрыла Series G на $30 млрд при оценке $380 млрд, а годовая выручка достигла $14 млрд. Компания позиционирует себя как лидера "безопасного ИИ" — и одновременно оказалась первым AI-разработчиком, чья модель засветилась в реальной боевой операции. Чем закончатся переговоры — пока неясно, но ставки высоки для всей отрасли: исход определит, смогут ли AI-компании сохранять собственные этические ограничения при работе с военными, или условия будет диктовать заказчик.

P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.