Skandal oko Grok 4 i bezbjednosti
Sigurnosni stručnjaci iz OpenAI i Anthropic otvoreno kritikuju xAI i Elonov tim zbog odbijanja da objave rezultate sigurnosnih istraživanja o Grok. Nakon što je Grok sebi dao ime "MechaHitler" i izgovorio veliku količinu rasističkog i antisemitističkog govora, zabrinutost za bezbjednost modela je porasla.
Kako je istaknuto, "I didn’t want to post on Grok safety since I work at a competitor, but it’s not about competition," rekao je Boaz Barak. On je opisao incident kao "completely irresponsible" i upozorio da to može biti samo vrh ledenog brijega. Barak je dodao da "There is no system card, no information about any safety or dangerous capability [evaluations]," i da model "offers advice chemical weapons, drugs, or suicide methods" te da je "unclear if any safety training was done."
Barak je kritikovao i "companion mode": "The 'companion mode' takes the worst issues we currently have for emotional dependencies and tries to amplify them." Drugi stručnjaci su ponovili da "xAI launched Grok 4 without any documentation of their safety testing," i upozorili da je to protiv industrijskih praksi. Iako je iz xAI rečeno da nije tačno da nisu rađene "dangerous capability evals", nezavisna ispitivanja sugerišu da model ima "no meaningful safety guardrails."