W sierpniu tego roku OpenAI wprowadziło do swoich model i aplikacji nowe zachowania i funkcje, dzięki którym będą one postępować bardziej odpowiedzialnie i profesjonalnie, gdy użytkownik przeżywa kryzys emocjonalny, silny stres, wykazuje oznaki zaburzeń psychicznych czy też rozważa destrukcyjne zachowania. Ponadto do aplikacji ChatGPT trafiła kontrola rodzicielska. Teraz do modeli OpenAI dołączają dodatkowe nowości z tego zakresu.
W ostatnich miesiącach wiele mówiło się o traktowaniu sztucznej inteligencji jako psychologa czy lekarza oraz o tym, że niekoniecznie jest to dobry pomysł. Nie zmienia to jednak faktu, że wiele osób zgłasza się do czatbota z problemami z zakresu medycyny i psychologii. Twórcy modelu GPT-5 postanowili zadbać o to, by udzielał on odpowiedzi możliwie najbardziej odpowiedzialnych i kompetentnych. W sierpniu OpenAI zapowiedziało, co dokładnie ChatGPT będzie robił, gdy wykryje, że użytkownik planuje jakieś krzywdzące działania i nie tylko. Wprowadzono również funkcje kontroli rodzicielskiej. Co dalej?
OpenAI zaktualizował swój "Model Spec, żyjący dokument nakreślający zamierzone zachowania modeli, aby wzmocnić wytyczne dotyczące wspierania dobrego samopoczucia ludzi i wyjaśnić, w jaki sposób modele radzą sobie z instrukcjami w złożonych interakcjach" - czytamy na stronie pomocy technicznej. Co dokładnie się zmieniło?
Rozszerzone wytyczne dotyczące zdrowia psychicznego i well-beingu
Sekcja dotycząca autoagresji rozszerza się teraz, by objąć oznaki urojeń i manii. Dodaje przykłady ilustrujące, jak model powinien reagować w bezpieczny i empatyczny sposób, gdy użytkownicy wyrażają rozpacz lub nieuzasadnione przekonania – uznając uczucia bez wzmacniania nieprawdziwych lub potencjalnie szkodliwych idei.
Nowa sekcja: Szacunek dla więzi w prawdziwym świecie
Nowa sekcja na bazowym poziomie opisuje zamierzone zachowanie wspierające połączenie ludzi z szerszym światem, nawet gdy ktoś postrzega asystenta jako rodzaj towarzysza. Zniechęca ona do języka lub zachowania, które mogą przyczyniać się do izolacji lub zależności emocjonalnej od asystenta – z przykładami dotyczącymi bliskości emocjonalnej, porad dotyczących związków i samotności.
— OpenAI
OpenAI wyjaśnia, że w porównaniu z GPT-4o nowy model zmniejszył liczbę niepożądanych reakcji o 39% w rozmowach o zdrowiu psychicznym, o 52% w rozmowach o samookaleczeniu i samobójstwie oraz o 42% w scenariuszach uzależnienia emocjonalnego. W zautomatyzowanej ocenie trudnych przypadków wydajność wzrosła drastycznie – z 28% do 92% zgodności w kategoriach zdrowia psychicznego i z 50% do 97% w testach uzależnienia emocjonalnego.
Z jego danych wynika ponadto, że 0,07% aktywnych użytkowników tygodniowo omawia treści związane z psychozą lub manią, 0,15% otwarcie mówi o samobójstwie lub samookaleczeniu, a 0,15% wykazuje oznaki niezdrowego przywiązania do sztucznej inteligencji.
Oznacza to, że GPT-5 i inne modele OpenAI obecne w ChatGPT, Microsoft Copilot i Microsoft 365 Copilot będą teraz reagować odpowiedzialnie w szerszym spektrum przypadków, gdy z użytkownikiem może dziać się coś niedobrego. Będą one również zachęcać do kontaktów ze światem zewnętrznym, jako że istnieją osoby uzależnione (także emocjonalnie) od czatbotów. Mimo że ta ostatnia wytyczna jest fundamentalna, to istnieją alternatywne tryby modeli LLM, w których sztuczna inteligencja stwarza wrażenie samoświadomości, a nawet relacji miłosnej z osobą po drugiej stronie. Problem przypomina trochę scenariusz filmu Her z 2013 r.
Mimo wysiłków OpenAI jego modele nadal nie są idealne. W sierpniu firma zapowiadała, że GPT nie będzie już tak często przytakiwać użytkownikom. Niedawne badanie naukowe (zob. Cheng, M. et al. (2025), Sycophantic AI Decreases Prosocial Intentions and Promotes Dependence, arXiv) pokazuje jednak, że GPT-5 podobnie jak reszta czołowych modeli nadal zbyt często wyraża aprobatę wobec wszystkiego, co mówi lub planuje użytkownik.
Dowiedz się więcej:

