
OpenAI опубликовала подробности контракта с Министерством обороны США на развертывание моделей в засекреченных сетях. Компания заявила, что ее соглашение обеспечивает "больше гарантий и более ответственные меры защиты, чем предыдущие контракты, включая оригинальный контракт Anthropic". В документе прописаны три красные линии: запрет на массовую слежку за американцами, на управление автономным оружием и на системы вроде "социального кредита".
Ключевое отличие от подхода конкурентов — механизм защиты. OpenAI сохраняет полный контроль над стеком безопасности, развертывает модели только через облако (не на edge-устройствах), а сотрудники компании с допуском секретности остаются в контуре. По словам OpenAI, другие лаборатории "убрали или ослабили свои защитные механизмы и полагаются в основном на политики использования" — прозрачный выпад в сторону xAI, чей Grok работает в сетях Пентагона с 23 февраля на условиях "любое законное использование".
При этом OpenAI прямо заявила, что Anthropic не должна иметь статус "угрозы цепочке поставок", и что компания донесла эту позицию до правительства. "Мы не знаем, почему Anthropic не смогла заключить такую же сделку, и надеемся, что они и другие лаборатории рассмотрят ее", — говорится в посте. Формулировка двусмысленна: одновременно и поддержка, и намек на то, что Anthropic отказалась от приемлемого компромисса.
Защита от слежки в контракте OpenAI строится на существующем законодательстве — Четвертой поправке, законе о наблюдении FISA 1978 года и директивах Минобороны. Именно это было камнем преткновения с Anthropic: компания Дарио Амодеи настаивала на контрактных запретах сверх действующего закона, указывая, что ИИ способен легально агрегировать открытые данные в профили слежки — и закон этого пока не покрывает. OpenAI, судя по опубликованному документу, сочла существующие нормы достаточными.
P.S. Поддержать меня можно подпиской на канал "сбежавшая нейросеть", где я рассказываю про ИИ с творческой стороны.
