Musiało dojść do tragedii, aby OpenAI zaczął wprowadzać nowe mechanizmy zabezpieczające, w tym kontrolę rodzicielską, do swojej aplikacji ChatGPT. 16-latek z Wielkiej Brytanii niedawno odebrał sobie życie, a jego rodzice pozwali firmę, oskarżając czatbota o podżeganie i wzmacnianie destrukcyjnych przekonań nastolatka, a nawet przekazywanie mu szczegółowych instrukcji.
OpenAI przeprosił rodziców chłopaka, przyznając, że ChatGPT nie zawsze reagował prawidłowo we „wrażliwych kontekstach”.
ChatGPT będzie teraz na podstawie rozmowy wykrywał wiek użytkownika i w przypadku nastolatków będzie postępował rozważniej – zwłaszcza gdy osoba po drugiej stronie wpadnie na jakiś szalony pomysł, będzie chciała wziąć udział w niebezpiecznym wyzwaniu czy też będzie się zmagać z silnym stresem lub załamaniem nerwowym. Do czatbota nie zostanie jednak wprowadzona weryfikacja wieku, która na całym świecie budzi wiele kontrowersji.
Inna funkcja, której wprowadzenie rozważa OpenAI, to zaufany kontakt alarmowy. W przypadku wykrycia problemów ChatGPT nie tylko będzie odsyłał do źródeł świadczących profesjonalną pomoc psychologiczną, ale także do zaufanego dorosłego.
W najbliższym czasie do aplikacji zawita także kontrola rodzicielska. OpenAI nie podał jeszcze, jak dokładnie będzie ona wyglądać, jednak zakłada się, że rodzice lub opiekunowie osób nieletnich będą mogli nadzorować, w jaki sposób ich pociechy używają sztucznej inteligencji, o czym z nią rozmawiają i ile czasu spędzają w aplikacji. Prawdopodobnie będą też mogli blokować niektóre tematy czy sposoby interakcji z ChatemGPT.