OpenAI выпустили GPT-5.2-Codex
GPT-5.1-Codex-Max в прошлый раз сделал ставку на масштаб: компакция контекста и агентные циклы длиной в сутки. GPT-5.2-Codex развивает ту же идею, но делает её более надёжной и прикладной для реальных продакшн-сценариев.Если 5.1-Codex-Max показывал максимум на SWE-Bench и SWE-Lancer, то 5.2-Codex подтверждает прогресс уже на agent-ориентированных бенчмарках:SWE-Bench Pro: 56.4% (против 55.6% у GPT-5.2)Terminal-Bench 2.0: 64.0%, уверенное лидерство в реальных CLI-задачахКлючевое отличие — эволюция компакции.
Если раньше она позволяла «просто не терять контекст», то теперь модель лучше удерживает план, корректирует стратегию после неудач и реже скатывается в повторные попытки.
habr.com