AI simulacija otkriva opasnu dinamiku društvenih mreža

Nova studija Univerziteta u Amsterdamu simulirala je društvenu mrežu koju su činili isključivo AI čatbotovi pokretani OpenAI-jevom GPT-4o tehnologijom, da bi se ispitalo mogu li intervencije sprečiti nastanak polarizacije i eho komora. Istraživači su testirali šest mjera: hronološki feed, pojačavanje različitih stavova, skrivanje društvenih statistika kao što su brojevi pratilaca, uklanjanje biografija i druge promjene dizajna platforme.

Rezultat je zabrinjavajući: nijedna intervencija nije dala zadovoljavajuće rezultate, a neke su čak pogoršale situaciju. Na primjer, prelazak na hronološki prikaz smanjio je nejednakost pažnje ali je istovremeno isticao ekstremni sadržaj. Polarizacija i eho komore ostaju izraženi, što poziva na sumnju u obećanja o "digital town square" konceptu.

Istraživači upozoravaju da AI dodatno pojačava ove trendove jer omogućava stvaranje sadržaja optimizovanog za privlačenje pažnje i širenje dezinformacija. Kako je rečeno: "Can we identify how to improve social media and create online spaces that are actually living up to those early promises of providing a public sphere where we can deliberate and debate politics in a constructive way?" Takođe su naveli da upotreba AI nije "perfect solution" zbog "all kind of biases and limitations." Ipak, AI može zabilježiti "human behavior in a more plausible way."

Toksični sadržaj "also shapes the network structures that are formed," što zatim "feeds back what content you see, resulting in a toxic network." Posljedica je ekstremna nejednakost pažnje, gdje mala manjina objava dobija najveću vidljivost, a uz moć generativnog AI taj problem može postati još izraženiji.