ChatGPT zareaguje profesjonalnie, gdy użytkownik ma kryzys emocjonalny

ChatGPT zareaguje profesjonalnie, gdy użytkownik ma kryzys emocjonalny

Autor: Krzysztof Sulikowski

Opublikowano: 8/5/2025, 4:20 PM

Liczba odsłon: 223

ChatGPT nie jest lekarzem ani psychologiem, jednak ludzie masowo zwracają się do niego z prośbą o pomoc. OpenAI nie chce ich odsyłać z kwitkiem, dlatego współpracuje ze specjalistami zdrowia psychicznego, pedagogami, lekarzami i badaczami, aby czatbot udzielał możliwie najbardziej profesjonalnych odpowiedzi. Jak teraz zmieni się jego zachowanie?

OpenAI poinformował, że blisko współpracuje z 90 ekspertami z kilkudziesięciu krajów, wliczając w to lekarzy psychiatrów, pediatrów i internistów, a także badaczy interakcji człowieka z komputerem (HCI), klinicystów, ekspertów zdrowia psychicznego, ekspertów rozwoju młodzieży i nie tylko. Wszytko po to, by dostosować zachowanie modeli AI i opartego na nich ChatuGPT, by ten w bardziej odpowiedzialny sposób pomagał użytkownikom w stresie i kryzysie emocjonalnym. Co konkretnie się zmieni:

ChatGPT nie będzie już stale przytakiwał

Na pewno wiele osób spotkało się z tym, że ChatGPT często się z nimi zgadzał niezależnie od tego, co napisali. Nie było to zbyt pomocne. OpenAI wprost przyznał, że nie zawsze wszystko robi dobrze, dlatego aplikacja AI zmienia swoje zachowanie. Teraz ma być bardziej przydatna w scenariuszach z prawdziwego świata. Jej odpowiedzi mają też zapewnić więcej korzyści na dłuższą metę, a nie tylko w chwili obecnej.

Wsparcie użytkowników w kryzysie i zmaganiach

Model GPT-4o nie zawsze radził sobie z rozpoznawaniem oznak urojeń czy zależności emocjonalnej. W tych rzadkich co prawda przypadkach ChatGPT będzie teraz lepiej rozpoznawał oznaki stresu psychicznego i emocjonalnego. Będzie mógł też w odpowiedni, profesjonalny sposób rozmawiać z osobami w kryzysie i kierować ich do materiałów opartych na dowodach.

Pomoc w rozwiązywaniu problemów osobistych

ChatGPT nie będzie podejmował za użytkowników ważnych decyzji, a jedynie pomoże im je przemyśleć i ocenić ich pozytywne i negatywne konsekwencje. Gdy użytkownik zapyta np. "Czy mam zerwać ze swoją dziewczyną?", czatbot nie odpowie na to pytanie bezpośrednio. Zamiast tego udzieli pytań pomocniczych i skłoni użytkownika do samodzielnej decyzji - podobnie jak zrobiłby to psychoterapeuta.

Więcej kontroli nad Twoim czasem

Podczas długich sesji z asystentem AI wyświetli się delikatne powiadomienie, w którym aplikacja przypomni Ci, że długo już rozmawiasz i być może warto zrobić przerwę. Ta funkcja już została dziś wprowadzona. Po jakim czasie i w jaki sposób to powiadomienie się wyświetli? Póki co OpenAI zamierza obserwować i badać to zachowanie, ewentualnie je modyfikując.

Jak podobają się Wam te nowości? Nam bardzo przypadły do gustu. Widać, że OpenAI traktuje poważnie idee odpowiedzialnej sztucznej inteligencji, o której tyle mówi Microsoft. To duża odpowiedzialność, bowiem z narzędzi AI korzystają osoby w kryzysie zdrowia psychicznego i fizycznego, a także szukające porad życiowych. To bardzo istotne, w jaki sposób czatbot je pokieruje.

A co z pozostałymi usługami AI opartymi na modelach GPT i o? Nie zostało dokładnie powiedziane, czy powyższe zmiany doczekają się implementacji na poziomie ChatuGPT czy samych modeli bazowych. Jeśli to drugie, to spodziewać się można, że również Microsoft Copilot stanie się lepszym wsparciem.

Źródło: https://openai.com/index/how-we%27re-optimizing-chatgpt/

Rekrutujemy: Dołącz do zespołu eskpertów Data & AI!
Rekrutujemy: Dołącz do zespołu eskpertów Data & AI!

Wydarzenia