Peste un milion de utilizatori ChatGPT au discutat despre sinucidere, potrivit OpenAI. OpenAI estimează că aproximativ 0,15% dintre utilizatorii ChatGPT au purtat conversații care conțin semne clare de planificare sau intenție suicidară, ceea ce înseamnă peste un milion de persoane la nivel global, potrivit datelor publicate de compania americană.
Conform raportului OpenAI, publicat luni într-o postare pe blogul oficial și citat de Le Figaro, aproximativ 0,15% dintre utilizatori au avut interacțiuni ce includ „indicatori expliciți de planificare sau intenție suicidară”. Având în vedere că ChatGPT are circa 800 de milioane de utilizatori activi săptămânal, procentul se traduce în peste 1,2 milioane de persoane care au discutat astfel de teme sensibile.
Urgențe de sănătate mintală detectate la mii de utilizatori
Pe lângă cazurile legate de sinucidere, OpenAI estimează că 0,07% dintre utilizatori, adică aproape 600.000 de persoane, prezintă semne de urgențe de sănătate mintală asociate cu episoade psihotice sau maniacale.
Contextul: cazul unui adolescent american
Anunțul vine pe fondul unui caz care a stârnit controverse în Statele Unite. Părinții unui adolescent californian, Adam Raine, au dat în judecată OpenAI, susținând că ChatGPT i-ar fi oferit sfaturi explicite despre cum să își ia viața.
Măsuri de siguranță implementate de OpenAI
Ca reacție la aceste situații, compania a anunțat măsuri suplimentare de protecție pentru utilizatori, printre care:
- acces rapid la linii de urgență în caz de criză,
- redirecționarea automată a conversațiilor sensibile,
- mesaje de încurajare pentru a lua pauze în timpul sesiunilor lungi,
- și întărirea controalelor parentale pentru conturile minorilor.
Reprezentanții OpenAI au declarat că siguranța utilizatorilor rămâne „o prioritate absolută” și că sistemele de detecție automată vor fi îmbunătățite pentru a identifica din timp semnele de risc.








