Comments 4
Иронично, что в отставку, видимо, уйдёт автор.

а вот про безопасность тема не раскрыта
Это новость, поэтому в новости только кратко в двух слова написано.
Основные механизмы безопасности по умолчанию
Изолированная среда выполнения (Sandboxing) Codex выполняет задачи в полностью изолированном облачном контейнере, управляемом OpenAI. Это предотвращает доступ к хост-системе, другим данным или внешним ресурсам.
По умолчанию используется режим sandbox, который ограничивает действия только текущим рабочим пространством (workspace).
В CLI и IDE-расширениях применяются ОС-специфичные механизмы: Seatbelt на macOS, Landlock/seccomp на Linux, экспериментальная sandbox на Windows.
Доступ к файлам вне workspace или выполнение опасных команд требует явного одобрения пользователя.
Отключённый доступ к сети Интернет отключён по умолчанию во время выполнения задач. Агент не может обращаться к внешним сайтам, API или сервисам.
Это минимизирует риски prompt injection, заражения malware или утечки данных.
Если сеть нужна (например, для web-поиска), её нужно явно включить в конфигурации — но даже тогда поиск использует кэшированные результаты для снижения рисков.
Полный доступ к живому интернету доступен только в специальных режимах с предупреждениями.
Защита от вредоносных запросов Модель специально обучена распознавать и отказывать в выполнении запросов на создание вредоносного ПО.
Codex отличает легитимные низкоуровневые задачи от злонамеренных.
Встроенные политики и оценки безопасности блокируют опасные действия.
Для общего контента применяется Moderation API OpenAI, который фильтрует потенциально вредоносный вывод (включая код).
Обработка данных и приватность
Все задачи обрабатываются независимо: репозиторий загружается в изолированную среду, без сохранения данных после завершения.
Промпты и выводы обрабатываются как чувствительная информация (по возможности redact'ятся).
Телеметрия отключена по умолчанию; логи не содержат промптов без явного разрешения.
Рекомендуется работать в feature-ветках Git для аудита изменений.
Требование человеческого контроля Все изменения кода требуют ручного просмотра и одобрения перед интеграцией.
Codex предоставляет прозрачные логи (терминал, тесты), чтобы пользователь мог проверить каждый шаг.
В режимах с автоматическими действиями (например, --full-auto) всё равно требуются подтверждения для рискованных операций.
Дополнительные рекомендации OpenAI
Хотя базовая безопасность сильная, OpenAI подчёркивает лучшие практики:
Использовать Moderation API для фильтрации вывода.
Проводить adversarial testing (red-teaming) приложений.
Всегда держать «человека в цикле» (human-in-the-loop) для проверки кода.
Ограничивать входные данные и выводы, чтобы избежать инъекций.
Итог
По умолчанию отключены сеть и внешние действия, всё работает в изолированном sandbox, а модель обучена блокировать вредоносные запросы. Это делает инструмент относительно безопасным для enterprise-использования без сложной настройки. Однако, как и с любым мощным AI, полная безопасность достигается только при ответственном использовании: обязательном ревью кода и соблюдении рекомендаций OpenAI.
https://github.com/orgs/community/discussions/185387
Кодеры уходят в отставку? OpenAI запустила Codex — «командный центр» для армии ИИ-разработчиков на Mac