OpenAI priznaje propuste u prepoznavanju mentalnog zdravlja

OpenAI je konačno priznao da ChatGPT ponekad ne prepoznaje očite znakove da korisnici imaju problema sa mentalnim zdravljem, uključujući i deluzije. Više izvještaja o AI psihozi i štetnim ishodima natjeralo je kompaniju da javno komentariše ovu temu. ChatGPT, kao proizvod OpenAI, sada je pod većom pažnjom zbog potencijalnog pojačavanja psihičke ranjivosti korisnika.

U kompanijskom izlaganju stoji: "We don't always get it right," a dalje navode: "There have been instances where our 4o model fell short in recognizing signs of delusion or emotional dependency," i: "While rare, we're continuing to improve our models and are developing tools to better detect signs of mental or emotional distress so ChatGPT can respond appropriately and point people to evidence-based resources when needed." OpenAI ističe da radi na alatima za detekciju i bolje odgovore u kritičnim trenucima.

OpenAI je također angažovao stalnog kliničkog psihijatra i osniva savjetodavnu grupu stručnjaka za mentalno zdravlje i razvoj mladih. Kao kratkoročna mjera uveo je „blage podsjetnike“ za pauze tokom dugačkih razgovora i najavio izmjene u ponašanju pri visokorizičnim ličnim odlukama. Kompanija priznaje da mora još raditi: "We hold ourselves to one test: if someone we love turned to ChatGPT for support, would we feel reassured?"