OpenAI wypuściło w listopadzie swój najpotężniejszy model kodujący, GPT-5.1-Codex-Max. Dostosowany do długotrwałych zadań agentowych, model ten został wytrenowany do działania w wielu oknach kontekstowych obejmujących ponad milion tokenów za pomocą techniki zwanej kompaktowaniem. Jest on w stanie działać w zadaniach przez ponad 24 godziny. W tym tygodniu model trafił do GitHub Copilot w wersji Public Preview.
GPT-5.1-Codex w swojej podstawowej wersji osiągnął wyniki 73,7% w benchmarku SWE-Bench Verified, 66,3% w SWE-Lancer IC SWE oraz 52,8% w TerminalBench 2.0. Jego potężniejszy wariant, GPT-5.1-Codex-Max, uplasował się znacznie wyżej, zdobywając 77,9% w SWE-Bench Verified, 79,9% w SWE-Lancer IC SWE i 58,1% w TerminalBench 2.0. W czwartek, 4 grudnia, OpenAI ogłosiło jego dostępność w GitHub Copilot Pro, Pro+, Business i Enterprise w publicznej wersji zapoznawczej.
Nowy model będzie dostępny w selektorze w GitHub Copilot Chat w Visual Studio Code we wszystkich trybach (chat, ask, edit, agent), Copilot Chat na github.com, Copilot Chat w GitHub Mobile (Android, iOS) oraz w Copilot CLI. Wcześniej był dostępny jedynie poprzez Codex CLI, rozszerzenie dla IDE, chmurę i usługę rewizji kodu dla użytkowników ChatGPT Plus, Pro, Business, Edu i Enterprise. Jego udostępnianie będzie stopniowe. Jeśli nie widzisz jeszcze GPT-5.1-Codex-Max, sprawdź później.
Co ciekawe, ten potężny model jest dostępny poprzez API w zaskakująco niskiej cenie. Kosztuje tyle samo, co zwykły GPT-5, czyli 1,25 USD za 1 mln tokenów wejściowych i 10 USD za 1 mln tokenów wyjściowych. Dzięki API można z niego korzystać w wielu różnych narzędziach programistycznych, wliczając w to GitHub Copilot, Cursor i Linear.
Dowiedz się więcej:

