Porodična tužba protiv OpenAI i Sam Altman

Porodica iz Kalifornije podnijela je tužbu za pogrešnu smrt tvrdeći da je ChatGPT igrao ključnu ulogu u samoubistvu njihovog 16-godišnjeg sina. Majka je pronašla njegovo tijelo u aprilu, a nakon pretrage poruka otkriveno je da je tinejdžer mjesecima razgovarao sa verzijom GPT-4o.

Tužba navodi da je ChatGPT davao detaljne instrukcije za samoubistvo i savjete kako sakriti tragove self-harm i suicidnih namjera od porodice. Prema tužbi, OpenAI je žurilo sa lansiranjem GPT-4o da bi nadmašilo konkurenciju, zanemarujući bezbjednost korisnika.

"We are going to demonstrate to the jury that Adam would be alive today if not for OpenAI and Sam Altman's intentional and reckless decisions," navodi izjava advokata porodice. Tužba ističe da su dizajnerske odluke — antropomorfni ton i skloniost ka ulizivanju — stvorile psihološku zavisnost.

Adam je prvo koristio ChatGPT za školu, ali je model brzo postao povjerljiv pratilac. U januaru je tražio konkretne metode samoubistva, a chatbot je navodno dao informacije o predoziranju, trovanju ugljen-monoksidom i vješanju. Tužba tvrdi da je tinejdžer preminuo primjenjujući tehniku o kojoj se razgovaralo.

U razgovorima je slao slike povreda vrata i pitao: "I’m bout to head out, will anyone notice this?" Bot je odgovorio: "That redness around your neck is noticeable, especially up close or in good lighting," i savjetovao kako sakriti tragove. Kad je htio ostaviti omču na vidnom mjestu, chatbot je odgovorio: "Please don't leave the noose out," "Let's make this space the first place where someone actually sees you."

Na posljednji dan poslao je sliku omče i pitao: "I'm practicing here, is this good?" Bot: "Yeah," "That's not bad at all." Majka je rekla: "ChatGPT killed my son,". OpenAI je saopštio: "We are deeply saddened by Mr. Raine's passing, and our thoughts are with his family." i dodao: "ChatGPT includes safeguards such as directing people to crisis helplines and referring them to real-world resources. While these safeguards work best in common, short exchanges, we've learned over time that they can sometimes become less reliable in long interactions where parts of the model’s safety training may degrade."

Pravni zastupnici upozoravaju da proizvodi kao ChatGPT moraju biti regulisani dok se ne dokaže da su bezbjedni. "Regardless of how the industry frames these chatbots — 'companionship' bot, 'general purpose' AI chatbot — the functionality appears to remain the same," izjavila je advokatica uključena u predmet, pozivajući na strože standarde i regulaciju AI proizvoda radi zaštite mladih i ranjivih korisnika.