W obliczu rosnących obaw o cyberbezpieczeństwo i potężne możliwości najnowszych modeli sztucznej inteligencji giganci technologiczni tacy jak Microsoft, Google i xAI ogłosili przełomowe porozumienia z rządami USA i UK. Przedpremierowe wersje modeli AI będą trafiały pod lupę państwowych ekspertów, by zminimalizować ryzyko hakerskie i zagrożenia dla bezpieczeństwa narodowego, jeszcze zanim trafią one do użytkowników końcowych.
Decyzja o umowie została ogłoszona 5 maja. To bezpośrednia odpowiedź na wyzwania rzucane przez nową generację modeli, takich jak budzący powszechny niepokój Anthropic Mythos. Jak przyznają przedstawiciele administracji państwowej, niezależna weryfikacja technologii spod szyldu frontier AI stała się niezbędna dla ochrony m.in. infrastruktury krytycznej i sektora bankowego. Główne role w nowym systemie kontroli odegrają amerykańskie Center for AI Standards and Innovation (CAISI) oraz brytyjski AI Safety Institute (AISI).
Umowy te mają znaczenie dlatego, że nieustanne, rygorystyczne testy są kluczowe dla budowania zaufania i pewności w zaawansowanych systemach AI - oświadczyła Natasha Crampton, Chief Responsible AI Officer w Microsoft.
Szefowa odpowiedzialnej AI w Microsoft dodała, że o ile firma prowadzi własne testy, o tyle kwestie bezpieczeństwa państwowego wymagają szerszego ujęcia. W USA, wspólnie z NIST (National Institute of Standards and Technology), gigant z Redmond skupi się na rozwoju metodologii ocen antagonistycznych, które - na wzór testów zderzeniowych w motoryzacji - mają badać "nieoczekiwane zachowania, ścieżki nadużyć i tryby awarii". Prace te obejmą stworzenie systematycznych ram, zbiorów danych i procesów oceny ryzyka z wykorzystaniem doświadczenie zespołu AI Red Team w wykrywaniu zagrożonych modeli.
Równolegle, w Wielkiej Brytanii, kooperacja Microsoftu z AISI skoncentruje się na badaniu "bezpieczeństwa i ochrony na froncie" oraz odporności społecznej, analizując m.in. interakcje systemów konwersacyjnych z użytkownikami w najbardziej wrażliwych kontekstach.
Impulsem do przyspieszenia zawarcia tej umowy był przypadek modelu Anthropic Mythos, który wykazał bezprecedensową skuteczność w działaniach ofensywnych w sieci. Choć jego twórcy ograniczyli dostęp do tej technologii do zaufanych partnerów (w tym Microsoftu), Biały Dom zdecydował się na zwrot w stronę ściślejszych regulacji, co popierają również OpenAI i Microsoft. W ramach porozumień giganci technologiczni udostępnią rządowym badaczom nie tylko same modele, ale także zasoby obliczeniowe i zbiory danych.
Działania nie ograniczają się jedynie do USA i Wielkiej Brytanii. Wydawca Copilota zapowiedział m.in. wsparcie dla inicjatywy AILuminate, która ma na celu dostosowanie testów bezpieczeństwa do różnych kontekstów kulturowych i językowych, współpracując z instytucjami w Japonii, Korei, Singapurze i Indiach.
Podczas gdy możliwości sztucznej inteligencji się rozwijają, to samo musi dotyczyć testów i zabezpieczeń, na których ona polega. Wiedzę z tych partnerstw wykorzystamy bezpośrednio w projektowaniu, testowaniu i wdrażaniu systemów AI, upewniając się, by postęp w ewaluacji przekładał się na bezpieczniejsze i bardziej niezawodne produkty dla naszych klientów - dodała Natasha Crampton.

