W obliczu rosnących wyzwań OpenAI zdecydował się na krok odmienny od swej konkurencji. Podczas gdy niektóre firmy ograniczają dostęp do swoich najbardziej zaawansowanych modeli, twórcy ChatGPT ogłosili znaczące rozszerzenie programu Trusted Access for Cyber (TAC). Inicjatywa ta ma na celu wyposażenie tysięcy zweryfikowanych programistów i specjalistów w narzędzia niezbędne do ochrony krytycznego oprogramowania. Głównym elementem tej strategii jest premiera GPT-5.4-Cyber - specjalistycznego wariantu modelu GPT-5.4, który został precyzyjnie dostrojony pod kątem defensywnych zastosowań w cyberbezpieczeństwie.
Program TAC, zainaugurowany na początku 2026 roku, ewoluuje z ograniczonej inicjatywy w rozbudowany system wielopoziomowego dostępu. Nowa struktura pozwala użytkownikom indywidualnym na zautomatyzowaną weryfikację tożsamości, natomiast organizacje mogą ubiegać się o dostęp dla całych zespołów za pośrednictwem dedykowanych przedstawicieli. Najwyższy stopień uprawnień, przeznaczony dla najbardziej zaufanych podmiotów, otwiera drzwi do korzystania z modelu GPT-5.4-Cyber. OpenAI podkreśla, że proces ten opiera się na obiektywnych kryteriach, takich jak procedury KYC, co ma na celu demokratyzację dostępu przy jednoczesnym zachowaniu ścisłej kontroli nad bezpieczeństwem.
GPT-5.4-Cyber wyróżnia się na tle standardowych modeli znacznie obniżonymi barierami odmowy w przypadku zapytań o charakterze dwufunkcyjnym. Model ten został zaprojektowany tak, aby wspierać profesjonalistów w zadaniach, które dotychczas mogły być blokowane przez ogólne mechanizmy bezpieczeństwa. Przykładem zaawansowanych możliwości jest inżynieria wsteczna plików binarnych. Dzięki temu eksperci mogą analizować skompilowane oprogramowanie pod kątem złośliwego kodu i podatności nawet wtedy, gdy nie mają wglądu w kod źródłowy. Ze względu na wysoką moc narzędzia jego wdrażanie odbywa się w sposób iteracyjny i kontrolowany, trafiając w pierwszej kolejności do sprawdzonych dostawców usług bezpieczeństwa i badaczy.
Strategia cyberbezpieczeństwa OpenAI opiera się na przekonaniu, że obrona musi rozwijać się w tempie identycznym jak możliwości ofensywne. Startup od lat systematycznie buduje swój ekosystem, czego dowodem jest m.in. program grantowy o wartości 10 milionów dolarów. Inicjatywa ta objęła już ponad 1000 projektów Open Source, a opisywane przez nas na CentrumXP narzędzie Codex Security realnie przyczyniło się do wyeliminowania ponad 3 tys. krytycznych luk w zabezpieczeniach.
Co dalej? Eksperci z firmy zaznaczają, że obecne działania to dopiero początek drogi. Już teraz trwają prace nad jeszcze potężniejszymi modelami, które w niedalekiej przyszłości mogą przewyższyć możliwościami dzisiejsze, wyspecjalizowane narzędzia.
Wizja przyszłości nakreślona przez OpenAI zakłada, że bezpieczeństwo powinno stać się integralną częścią procesu tworzenia oprogramowania, a nie tylko etapem końcowego audytu. Poprzez integrację modeli kodujących o wysokich zdolnościach sprawczych z codzienną pracą programistów możliwe staje się natychmiastowe reagowanie na zagrożenia już w fazie pisania kodu. Firma deklaruje, że jej podejście do skalowania cyberobrony będzie ewoluować wraz z każdą kolejną premierą, zapewniając legalnym obrońcom przewagę technologiczną niezbędną do ochrony globalnej infrastruktury cyfrowej.
Na koniec warto wspomnieć o poruszonej na wstępie kwestii ograniczania dostępu do narzędzi. OpenAI zrobił to już w czasach GPT-2 w 2019 r., uznając model za zbyt niebezpieczny, jednak niedługo później trafił on do użytkowników. Tym razem podobnie postąpił Anthropic, którego nowy model Claude Mythos Preview został uznany za tak potężny i nieprzewidywalny w działaniach agentowych, że bezpieczniej byłoby nie udostępniać go szerszej publiczności. Zamiast tego dostęp przyznano jedynie partnerom technologicznym, wliczając w to Microsoft, którym pomagać ma w poszukiwaniu luk w zabezpieczeniach. A trzeba przyznać, że Mythos jest w tym świetny.
Mythos wykazał się niezrównaną skutecznością detekcji błędów, przewyższającą niemal wszystkich ludzkich ekspertów. Narzędzie już w fazie testów zidentyfikowało tysiące krytycznych luk w najpopularniejszych systemach operacyjnych i przeglądarkach, w tym m.in. błąd w OpenBSD, który pozostawał nieodkryty przez blisko trzy dekady, a także łańcuch podatności w systemie Linux. Mimo spektakularnych wyników zarówno w benchmarkach, jak i wykrywaniu luk w prawdziwym świecie, twórcy ograniczają dostęp do jego technologii w obawie, że mogłaby stać się ona potężną bronią w rękach cyberprzestępców, ułatwiając przeprowadzanie ataków na masową skalę. Nie wiadomo, czy Anthropic postąpi jak OpenAI w przypadku GPT-2 i z czasem nie uczyni Mythosa ogólnodostępnym.

