GPT-5 i talas halucinacija

Više od mjesec dana nakon izlaska, GPT-5 i dalje generiše zapanjujuću količinu netačnih tvrdnji. Novi OpenAI model pokazuje učestale halucinacije i daje lažne informacije, što dovodi u pitanje tvrdnje o njegovoj "PhD-level intelligence" sposobnosti.

Primjeri pogrešnih podataka

Korisnik foruma primijetio je da GPT-5 daje "wrong information on basic facts over half the time," uključujući GDP cifre koje su bile "figures that were literally double the actual values." Na primjer, Poljska je u odgovoru predstavljena sa više od dva biliona dolara, iako je njena stvarna vrijednost oko $979 billion.

Zašto LLM halucinira

OpenAI u blogu objašnjava da "Hallucinations persist partly because current evaluation methods set the wrong incentives," i da "While evaluations themselves do not directly cause hallucinations, most evaluations measure model performance in a way that encourages guessing rather than honesty about uncertainty." Drugim riječima, modeli su trenirani da pogađaju umjesto da otvoreno priznaju neizvjesnost.

Eksperimenti i vizuelne greške

Nezavisni ispitivači prikazali su primjere loših rezultata: jednostavne igre, finansijski savjeti i zahtjevi za označene slike su dali smiješne ili neutemeljene odgovore. Jedan test sa zahtjevom "posse" umjesto "possum" proizveo je pogrešno označene delove, a naredni zahtjev "a posse with six body parts labeled" takođe je dao netačne, zbunjujuće slike. Takve greške pokazuju da GPT-5 halucinira kako u tekstu, tako i u vizualnim prikazima.

Zaključak

Jasno je da GPT-5 nije nepogrešiv i da i dalje halucinira i daje lažne informacije. Najmudrije je uvijek provjeravati činjenice i ne prihvatati odgovore chatbota bez dodatne verifikacije.