Nova generacija govorećih plišanih igračaka

Od filmova kao što je "AI" (2001) do modernih horora, ideja da igračke sa tehnologijom mogu ugroziti djecu ne prestaje da intrigira. Danas se na internetu prodaju govoreće plišane igračke sa naprednim AI chatbotima koje obećavaju interakciju, ali i postavljaju ozbiljna pitanja o privatnosti djece.

Koji su rizici

Neke od legitimnijih opcija dolaze iz startupa koji tvrde da koriste prilagođene, "child-friendly" chatbotove i profesionalne glasovne snimke. Ipak, u pravilima privatnosti pojedinih proizvođača pronađeni su podaci da usluge poput Azure Cognitive Services, OpenAI, Perplexity AI i platformi za verifikaciju roditelja mogu "prikupljati ili zadržavati lične informacije djece". To je u suštini u koliziji sa tvrdnjama da se razgovori čuvaju samo radi roditeljskog pregleda.

Jeftinije, sumnjivije alternative

Pored poznatih brendova pojavili su se proizvođači bez jasnog poslovanja i dokumentacije. Neki sajtovi koriste AI-generisane slike i ne navode koje modele koriste, dok drugi navode izbor između više LLM dobavljača bez transparentne politike privatnosti. To stvara stvarne sumnje da li se podaci djece prikupljaju ili dijele.

Zaključak

Uvođenje AI u dječje igračke otvara mogućnosti, ali i opasnosti. Dok odrasli mogu svjesno prihvatiti rizik, izlaganje djece uređajima koji bilježe razgovore i dijele podatke sa nejasnim partnerima djeluje rizično i nepravedno. Potrebna je veća transparentnost i stroži standardi privatnosti prije nego što ove igračke postanu svakodnevica.