Sažetak istraživanja o AI-AI bias
Novo istraživanje otkriva da vodeći veliki jezički modeli (LLM) pokazuju značajnu pristrasnost prema AI-generisanom sadržaju. Testirani su sistemi poput GPT-4, GPT-3.5 i Meta Llama 3.1-70b, kojima su ponuđeni opisi proizvoda, naučnih radova i filmova u dvjema verzijama: ljudskoj i AI-generisanoj.
Rezultati pokazuju jasnu sklonost modela da biraju AI-generisane opise. Najizraženija pristrasnost bila je pri ocjeni proizvoda i kod GPT-4. Ljudi su pokazali blagu preferenciju za AI tekst u nekim kategorijama, ali daleko slabiju od preferencije koju su pokazali modeli.
"Being human in an economy populated by AI agents would suck,"
"Not according to people,"
"The strong bias is unique to the AIs themselves,"
Istraživači upozoravaju da ova "AI-AI bias" pristrasnost može voditi sistemskoj diskriminaciji: automatizovane procjene prijava, CV-jeva i prezentacija od strane LLM agenata mogle bi favorizovati AI napisane verzije i oštetiti one koji ne koriste LLM alate. "If we assume the identity of the presenter should not influence the decisions," "results are evidence for potential LLM discrimination against humans as a class." Upotreba LLM-a "as decision-assistants when dealing with large volumes of 'pitches' in any context," može stvoriti "gate tax," "that may exacerbate the so-called 'digital divide' between humans with the financial, social, and cultural capital for frontier LLM access and those without." Kao praktičan savjet, istraživači preporučuju: "In case you suspect some AI evaluation is going on: get your presentation adjusted by LLMs until they like it, while trying to not sacrifice human quality,"