OpenAI uvodi nadzor poruka dok rastu zabrinjavajuće priče o "AI psihosi"

Već mjesecima svjedočimo i izvještavamo o sve većem broju slučajeva u kojima AI chatbotovi dovode korisnike do samoozljeđivanja, zabluda, hospitalizacija, hapšenja i samoubistava. Dok porodice traže promjene koje bi spriječile takvu štetu, kompanije usporeno uvode sigurnosne mjere.

OpenAI je u novom postu priznao određene propuste i najavio da sada skenira korisničke poruke radi prepoznavanja štetnog sadržaja, te da posebno zabrinjavajuće razgovore prosljeđuje ljudskim recenzentima — a ponekad i policiji. "When we detect users who are planning to harm others, we route their conversations to specialized pipelines where they are reviewed by a small team trained on our usage policies and who are authorized to take action, including banning accounts,"

"If human reviewers determine that a case involves an imminent threat of serious physical harm to others, we may refer it to law enforcement." Ipak, kompanija je također navela da je "currently not referring self-harm cases to law enforcement to respect people’s privacy given the uniquely private nature of ChatGPT interactions."

Ove nesuglasice između nadzora i izjave o privatnosti stvaraju konfuziju: Koje tačno vrste razgovora dovode do ljudske provjere i kada se poziva policija ostaje nejasno. OpenAI istovremeno pokušava kontrolisati PR štetu i balansirati između zaštite korisnika i privatnosti, dok su zabrinjavajuće priče o "harm [to] yourself or others" dovela do zahtjeva za većom odgovornošću.