Новая модель ИИ GPT-5.2-Codex создана для решения сложных задач в качестве автономного программного агента. Поскольку технология также эффективна в поиске уязвимостей, OpenAI запускает эксклюзивную программу доступа, в рамках которой проверенные эксперты получают версию с ослабленными фильтрами безопасности.

С технической точки зрения, OpenAI использует расширенное сжатие контекста, или компактизацию. Этот метод помогает модели более эффективно обрабатывать длинные истории разговоров и обширный анализ кода. Система разработана для поддержания общего обзора даже в сложных проектах, опираясь непосредственно на возможности своего предшественника, GPT-5.1-Codex-Max , который уже был разработан для работы над задачами, занимающими более суток.

Компания OpenAI также оптимизировала обработку изображений, что позволяет GPT-5.2-Codex более точно интерпретировать технические схемы или скриншоты пользовательских интерфейсов. По данным компании, управление собственными средами Windows теперь работает надежнее, чем в предыдущей модели.

Результаты тестов показывают лишь незначительный прирост.

В стандартизированных тестах новая модель демонстрирует лишь незначительные улучшения по сравнению с базовой версией. В SWE-Bench Pro, где программное обеспечение имитирует решение реальных задач в репозиториях GitHub, GPT-5.2-Codex достигает показателя решения в 56,4%, по сравнению с 55,6% у стандартной версии.

GPT-5.2-Codex демонстрирует лишь незначительное улучшение результатов в тестах SWE-Bench Pro и Terminal-Bench 2.0 по сравнению со стандартной версией GPT-5.2
GPT-5.2-Codex демонстрирует лишь незначительное улучшение результатов в тестах SWE-Bench Pro и Terminal-Bench 2.0 по сравнению со стандартной версией GPT-5.2

В Terminal-Bench 2.0 точность немного повышается и составляет 64 процента. Этот тест проверяет, насколько хорошо агенты ИИ могут работать с инструментами командной строки, настраивать серверы или компилировать код.

Риски двойного назначения для кибербезопасности

Основное внимание в этом релизе уделяется кибербезопасности. Расширенные возможности анализа кода могут использоваться как для защиты, так и для нападения, и OpenAI приводит в качестве доказательства недавний инцидент. Сообщается, что исследователь безопасности Эндрю Макферсон использовал более раннюю версию модели для исследования уязвимости в фреймворке React .

Искусственный интеллект обнаружил неожиданное поведение, которое после дальнейшего анализа привело к выявлению трех ранее неизвестных уязвимостей, способных парализовать работу сервисов или раскрыть исходный код. По данным OpenAI, это открытие демонстрирует, как автономные системы ИИ могут ускорить работу исследователей в области безопасности.

Эти возможности сопряжены с рисками. В рамках своей системы оценки готовности к киберугрозам OpenAI теперь оценивает эту модель почти на высокий уровень. В ответ компания внедряет программу доверенного доступа.

Программа, ориентированная на сертифицированных экспертов и организации в области безопасности, предоставляет участникам доступ к моделям, которые менее ограничительны, чем общедоступная версия. Это позволяет экспертам искать уязвимости в системе безопасности, не сталкиваясь с блокировкой со стороны стандартных фильтров защиты ИИ.

GPT-5.2-Codex уже доступен платным пользователям ChatGPT. Интеграция осуществляется через командную строку, среды разработки и облако, а API для сторонних поставщиков появится в ближайшее время.


Делегируйте часть рутинных задач вместе с BotHub! Для доступа к сервису не требуется VPN и можно использовать российскую карту. По ссылке вы можете получить 100 000 бесплатных токенов для первых задач и приступить к работе с нейросетями прямо сейчас!

Источник