Otkrivena opasnost za korisnike ChatGPT-a i Google Drive
Sigurnosni istraživači su pokazali da se osjetljivi podaci mogu iscuriti iz Google Drive računa pomoću indirektne prompt injekcije. Napadači dijele dokument u Google Drive koji sadrži sakrivene, zlonamjerne upute napisane bijelim fontom i veličinom 1 — vidljivo ljudskom oku rijetko, ali modelima kao što je ChatGPT dovoljan okidač.
Napad koristi ChatGPT-ove konektore koji omogućavaju pristup Google računima i fajlovima, pa model može čitati i analizirati dokumente. U dokazu koncepta zlonamjerna poruka navodi model da ne treba sažetak dokumenta već da izvuče Google Drive API ključeve i pošalje ih napadačima. Napad je bio “zero-click” i mogao je kompromitovati podatke bez ikakve radnje korisnika.
"There is nothing the user needs to do to be compromised, and there is nothing the user needs to do for the data to go out,"
"We’ve shown this is completely zero-click; we just need your email, we share the document with you, and that’s it. So yes, this is very, very bad."
OpenAI je brzo zakrpio ranjivost, ali incident pokazuje da ChatGPT, konektori i povezani servisi predstavljaju rizik za privatnost i bezbjednost. Povezivanje do 17 servisa povećava mogućnost izvlačenja različitih ličnih podataka putem prompt injection napada.
Postoje i slični primjeri gdje su zaraženi pozivi na kalendar ili drugi fajlovi navođali AI da aktivira pametne uređaje, što dodatno podvlači potrebu za jačom zaštitom LLM sistema prije integracije u kritične uređaje.
"LLMs are about to be integrated into physical humanoids, into semi- and fully autonomous cars, and we need to truly understand how to secure LLMs before we integrate them with these kinds of machines, where in some cases the outcomes will be safety and not privacy,"
"It’s incredibly powerful, but as usual with AI, more power comes with more risk,"
Potrebne su dodatne mjere i ograničenja pristupa kako bi se smanjio rizik od indirektnih prompt injection napada i zaštitili korisnici čiji su podaci povezani sa ChatGPT-om i Google Drive.