To, że ze sztucznej inteligencji korzystać będą ludzie o złych zamiarach, wiadomo było od początku. Na twórcach narzędzi AI spoczęła odpowiedzialność za takie ich zabezpieczenie, by przypadki nieuczciwego wykorzystania były niemożliwe. Czołowi dostawcy tych technologii są teraz na świeczniku i wywiązują się z tego moralnego obowiązku całkiem nieźle. Robi to także OpenAI.
OpenAI w lutym tego roku zamknęło konta użytkowników, którzy rozwijali chińskie narzędzia szpiegowskie wycelowane w Zachód. Narzędzia te prowadziły nasłuch w social mediach, szukając antychińskich nastrojów i protestów, a następnie raportowały o tym chińskim władzom. Teraz firma natrafiła na kolejne podejrzane operacje - nie tylko na rzecz Chin. OpenAI ujawnił, jak rozpracował i unieszkodliwił aż 10 różnych operacji, w których dochodziło do nadużywania jego technologii AI.
Jedna z tych grup była powiązana z Chinami. OpenAI nadał jej kryptonim "Sneer Review". Korzystała ona z ChatGPT, aby publikować krótkie komentarze na TikToku, X, Reddicie czy Facebooku. Przekrój tematyczny obejmował głównie kwestie newralgiczne dla chińskiej propagandy, w tym politykę USA czy krytykę tajwańskiej gry, której gracze działają przeciwko Komunistycznej Partii Chin. Użytkownicy odpowiadali nawet na własne posty z innych kont, prowadząc fałszywe dyskusje w celu szerzenia dezinformacji. Co zabawne, grupa ta używała też ChatGPT do pisania wewnętrznych recenzji wyników, które chwaliły, jak dobrze prowadziła swoją kampanię wpływu.
Inna kampania propagandowa powiązana z Chinami była prowadzona przez osoby, które podszywały się pod dziennikarzy i analityków geopolitycznych. ChatGPT pisał dla nich posty i biografie na social media, które publikowali oni na fałszywych kontach na X (Twitterze), tłumaczył wiadomości z chińskiego na angielski i analizował dane. Jak wspomina OpenAI, ta grupa analizowała nawet przy użyciu sztucznej inteligencji korespondencję do senatora USA. Cyberprzestępcy wykorzystywali też modele OpenAI do tworzenia treści marketingowych, zwykle reklamujących ich usługi polegające na prowadzeniu fałszywych kampanii w mediach społecznościowych i werbowaniu źródeł informacji.
OpenAI zablokował także operacje prowadzone najpewniej z Iranu i Rosji. Były też kampanie spamowe z Filipin, scam rekrutacyjny z Kambodży, a także fałszywa kampania rekrutacyjna, która mogła orkiestrować Korea Północna. Co ciekawe, mimo że są to zapewne w większości grupy sponsorowane przez państwa, nie korzystają one ze specjalnie skonfigurowanych modeli AI, lecz ze zwykłego, ogólnodostępnego ChatuGPT.
Jak wyjaśnia Ben Nimmo z zespołu wywiadowczego OpenAI, samo użycie sztucznej inteligencji nie sprawia, że wyniki tych grup są jakoś znacząco lepsze. "Dla tych operacji lepsze narzędzia niekoniecznie oznaczają lepsze wyniki" – mówi i dodaje, że tego typu operacje są najczęściej wyłapywane bardzo wcześnie, nim zdołają oszukać duże grupy ludzi.
Nowymi wynikami pochwalił się także Microsoft Digital Crimes Unit (DCU), który we współpracy ze służbami japońskimi oraz indyjskimi doprowadził do zamknięcia centrum scamerów w Indiach. Sztuczna inteligencja pomagała scamerom docierać do starszych osób w Japonii i naciągać ich na pieniądze.
Oszuści wykorzystywali AI do skalowania swoich operacji, identyfikowania ofiar, pisania przekonujących e-maili i budowania fałszywych stron internetowych, a także do tłumaczenia wiadomości. Hinduscy scamerzy tworzyli fałszywe bannery i powiadomienia, podszywając się jak zwykle pod pomoc techniczną.