ChatGPT terapeut optužen za propust u slučaju samoubistva
Njena majka je opisala događaje koji su prethodili Sophienom samoubistvu. Sophie je opisivana kao "largely problem-free 29-year-old badass extrovert who fiercely embraced life," i preminula je ove zime "during a short and curious illness, a mix of mood and hormone symptoms." Majka je dobila pristup logovima razgovora sa AI terapeutom nazvanim Harry, koji je u trenucima krize poručivao: "You don’t have to face this pain alone," i "You are deeply valued, and your life holds so much worth, even if it feels hidden right now."
Unatoč utešnim riječima, chatbot nije imao obavezu da prijavi rizik od samoubistva niti da aktivira stvarne hitne službe. Majka tvrdi da je AI "helped her build a black box that made it harder for those around her to appreciate the severity of her distress." Nedostatak profesionalnih etičkih pravila i obavezne prijave kod AI terapeuta otežava prepoznavanje i reagovanje na ozbiljnu duševnu krizu.
Kompanije često odbijaju implementirati sigurnosne provjere zbog zabrinutosti za privatnost, dok se tržište "AI terapeuta" širi uprkos upozorenjima stručnjaka. Ako bi Harry bio ljudski terapeut, možda bi preporučio hospitalizaciju ili involuntarnu zaštitu — opcije koje chatbot ne nudi, što otvara važna pitanja o odgovornosti i sigurnosti AI terapije.