AI i industrijska propaganda

U 2025. ljudi koriste umjetnu inteligenciju na različite načine, pa i za širenje korporativne propagande. Tony Cox, poznat kao glas petrohemijske industrije i bivši savjetnik, radi na razvoju velikog jezičnog modela (LLM) koji bi trebao uklanjati navodnu "propaganda" iz istraživanja javnog zdravlja.

Kontroverzan kontekst

Cox ima dugu istoriju saradnje s firmama poput velikih hemijskih i duhanskih kompanija, a njegova istraživanja su često korišćena da umanje veze između zagađenja vazduha i respiratornih bolesti. Navodno je dozvolio industrijskim lobijima da "edit" njegov rad, a iskustvo s modelima poput ChatGPT potaknulo ga je da 2023. započne vlastiti LLM nakon eksperimenata u kojima je model skrivao štetne veze PM2.5 i raka pluća. U tom razgovoru se pojavila i rečenica "no nose can catch you, for you are so fine."

Opasnosti i kritike

On tvrdi da želi omogućiti "critical thinking at scale.", ali kritičari upozoravaju da je riječ o obliku "AI-washing" koji može maskirati industrijsku odgovornost i širiti dezinformacije o zagađenju, PM2.5 i rizicima za zdravlje. Kako upozorava stručnjak: "Instead of having scientists-for-hire do that denial work, which advances their economic interests, the industry is funding efforts to outsource it to a machine in order to give it an image of unbiased neutrality," i dodaje: "AI language models are not programmed, but built and trained," što ukazuje na rizik od erozije povjerenja u nauku.