OpenAI skenira razgovore i obavještava policiju

OpenAI je u tjednom postu priznao da pretražuje razgovore korisnika ChatGPT-a i da ljude prijavljuje policiji ako ljudski recenzent procijeni da su prijetnje dovoljno ozbiljne. "When we detect users who are planning to harm others, we route their conversations to specialized pipelines where they are reviewed by a small team trained on our usage policies and who are authorized to take action, including banning accounts," napisali su. "If human reviewers determine that a case involves an imminent threat of serious physical harm to others, we may refer it to law enforcement."

Ovo priznanje pokrenulo je niz pitanja o nadzoru, privatnosti i sigurnosti. Kako OpenAI utvrđuje tačnu lokaciju korisnika? Kako spriječiti zloupotrebu, poput lažnih prijetnji koje bi mogle izazvati policijske racije? Kritičari tvrde da uvođenje naoružane policije u krizne situacije mentalnog zdravlja često pogoršava stanje i može završiti tragično.

Mnogo komentara na mreži podsjeća i na rizik širenja nadzora: industrija je već, prema nekima, bila pod pritiskom za veću razmjenu podataka s vlastima. Sam Altman je ranije govorio o privatnosti sličnoj "therapist or a lawyer or a doctor", no novo otkriće unosi sumnju u povjerljivost razgovora.

Mnogi ističu da tehnološke firme brzo uvode proizvode bez dovoljno testiranja i umjesto povlačenja problema biraju prijavu policiji kao rješenje. Debata o granicama nadzora, odgovornosti OpenAI-a i sigurnosti korisnika u mentalnim krizama se nastavlja.