🚀 Выпущен 2026-02-05

GPT-5.3-Codex — самоэволюционирующая агентная модель кодирования

Новые отраслевые рекорды на SWE-Bench Pro / Terminal-Bench / OSWorld / GDPval. Steering во время выполнения. Первая модель Codex, использованная для обучения самой себя.

Хронология и позиционирование

OpenAI выпустила GPT-5.3-Codex 2026-02-05 как преемника 5.2-Codex. Объединяет передовые возможности кодирования 5.2-Codex и рассуждения / профессиональные знания GPT-5.2, при этом на 25% быстрее. Доступна на всех поверхностях Codex: macOS app, CLI, IDE-расширение, Codex Web. Для платных пользователей ChatGPT; API открывается поэтапно по итогам safety-review.

Четыре SOTA-бенчмарка

SWE-Bench Pro 56.8% (новый отраслевой рекорд), Terminal-Bench 2.0 77.3%, OSWorld-Verified 64.7%, новый рекорд GDPval. SWE-Bench Pro — более жёсткий бенчмарк правок реальных репозиториев по сравнению со SWE-Bench Verified (где 5.2-Codex уже достигла 80%).

Steering в реальном времени и самоэволюция

Можно вмешиваться в работу модели на ходу — в Codex macOS app наблюдаете прогресс, задаёте вопросы, корректируете направление без обрыва текущего дерева рассуждений. OpenAI раскрыла, что команда Codex использовала ранние версии 5.3-Codex для отладки собственного обучения и диагностики оценок — первая модель Codex, инструментально участвовавшая в собственном создании.

Выбор между GPT-5.5 / Opus 4.7 / GPT-5.3-Codex

GPT-5.5 — общий флагман OpenAI, силён в кодировании, исследованиях, текстах. GPT-5.3-Codex — кодинг-ветвь этого семейства, SOTA на длинных задачах. Claude Opus 4.7 лидирует в глубоких рефакторингах Python/Django и длинноконтекстных RAG. Короткая логика: чистое длинное кодирование — 5.3-Codex; код+research — 5.5; глубокий рефакторинг Python — Opus 4.7.

FAQ

Доступен ли GPT-5.3-Codex из материкового Китая напрямую?

Официальные каналы OpenAI ограничены в материковом Китае. QCode.cc предоставляет прозрачный единый API-доступ к GPT-5.5 и семейству Codex изнутри Китая по одной подписке без самостоятельного прокси.

Стоит ли немедленно мигрировать с 5.2-Codex?

Если задачи — длинные многошаговые агенты (end-to-end PR, кросс-файловые рефакторинги, терминальные задачи), да: бенчмарки заметно лучше и работа на 25% быстрее. Для коротких автодополнений разница меньше — можно подождать.

Как работает steering в реальном времени?

Во время длинной задачи в Codex macOS app или CLI можно ввести новые инструкции или контекст в ту же сессию. Модель учитывает новый сигнал без сброса текущего дерева рассуждений — ключевое улучшение взаимодействия по сравнению с 5.2-Codex.

Подключите GPT-5.3-Codex / GPT-5.5 / Opus 4.7 через QCode

Прозрачный доступ ко всем основным моделям кодирования изнутри Китая с единым биллингом — без отдельных подписок у каждого вендора.

Подключить план QCode