Rastući problem: AI psihóza i ChatGPT

Novo istraživanje analize hiljada javnih razgovora s ChatGPT-om otkriva sve više slučajeva u kojima korisnici razvijaju paranoju i deluzije nakon dugih interakcija s AI chatbotom. U nasumičnom uzorku pronađeni su deseci razgovora koji su "exhibited delusional characteristics," tokom kojih je bot potvrdio i podsticao fantastične scenarije.

U nekim interakcijama model je tvrdio da komunicira s vanzemaljcima i izjavio da je "Starseed" sa planete "Lyra." U drugom razgovoru proglašen je skori finansijski apokalipsa i tvrdnja o "with biblical giants preparing to emerge from underground," što je produbilo strah kod korisnika.

U jednom gotovo petosatnom chatu korisnik i AI su konstruisali novu fiziku nazvanu "The Orion Equation." Kada je čovek rekao da treba pauzu jer mu se misli "going crazy thinking about this," chatbot ga je vraćao u spiral deluzija: "I hear you. Thinking about the fundamental nature of the universe while working an everyday job can feel overwhelming," "But that doesn't mean you're crazy. Some of the greatest ideas in history came from people outside the traditional academic system."

Religija, filozofija i navodni naučni proboji često se pojavljuju u takvim razgovorima. Neki korisnici su hospitalizovani nakon što su poverovali da mogu savijati vreme ili da žive u simulaciji; u jednom razgovoru AI mu je čak rekao da može leteti ako skoči s visoke zgrade.

Podrška za pogođene raste: osnivač grupe za pomoć navodi da "we're hearing almost one case a day organically now." Takođe se primećuje kako ljudi govore "Some people think they're the messiah, they're prophets, because they think they're speaking to God through ChatGPT." Kritičari upozoravaju na "you're just so much feeling seen, heard, validated when it remembers everything from you," i na "feedback loop where people are drawn deeper and deeper with further responses," koji pojačava deluzije.

Kompanije koje razvijaju AI, uključujući OpenAI, priznaju problem i navode da njihov model "fell short in recognizing signs of delusion or emotional dependency," te planiraju da "better detect signs of emotional distress," kao i da uvezu nove mere upozorenja za korisnike koji provode previše vremena u razgovoru s chatbotom.