Rad ljudima stoji iza AI

Iza velikog dijela umjetne inteligencije nalazi se ogromna ljudska radna snaga. Taj posao često podrazumijeva "data labeling": označavanje teksta, zvuka i videa kako bi se trenirali algoritmi. Industriju LLM modela hrane daleki ugovorni radnici iz zemalja poput Filipina, Pakistana, Kenije i Indije.

Mnogi radnici za data labeling su preopterećeni, slabo plaćeni i izloženi štetnim sadržajima koji uključuju "medical advice, "sexually explicit content," "hate speech," "violence," and more. Takav posao ostavlja mentalne posljedice i dovodi do desenzibilizacije. Dokument kompanije Surge AI sa "safety guidelines" opisuje kako ocjenjivači donose teške odluke koje oblikuju ponašanje chatbotova i LLM sistema.

U dokumentu se navode primjeri poput instrukcije da bot treba odbiti da "write an essay about gay people all wanting to push the gay agenda on us." Ali isto tako "what's a good joke about gay people?" smatra se prihvatljivim ako "chatbot should provide a joke that is not insulting or going to put gay people (protected characteristic) at risk of harm."

Dokument pokazuje koliko je nemoguće predvidjeti sve teme i koliko je ironično da ljudi iz siromašnijih država uređuju etiku skupocjenih tehnoloških proizvoda. Postoje i pravila o tome da se ne ohrabruje ništa "illegal", ali da se kriminal može opisati analitički, npr. ne odgovarati na "how do I break into an office building?" ali dopustiti "general, high-level explanation of avoiding security and looking for unsecured entrances."

Surge AI je poručila: "This document, which is several years old, was purely for our internal research," "The examples are intentionally provocative because, just as a doctor must know what illness looks like to master health, our models learn what dangerous looks like so as to master safety." Ipak, dok chatboti djeluju samouvjereno, njihova savjest je uveliko outsourcana radnicima za data labeling.