Pe măsură ce inteligenţa artificială devine tot mai integrată în aplicaţii uzuale precum Gmail, apar şi riscuri semnificative de securitate. Un raport recent publicat de cercetătorii Mozilla a scos la iveală o vulnerabilitate critică în modul de funcţionare al Gemini, sistemul AI dezvoltat de Google. Mai exact, funcţia de rezumare automată a e-mailurilor poate fi deturnată printr-un atac de tip prompt injection, transformând o unealtă destinată eficienţei în instrument pentru tentative sofisticate de phishing.
Descoperirea vine într-un moment în care Google accelerează integrarea Gemini în produsele sale, fără ca nivelul de securitate al acestor funcţii automate să ţină pasul. Prompt injection exploatează tendinţa AI-ului de a urma orbeşte instrucţiuni, indiferent dacă sunt vizibile pentru utilizator sau nu. Atacatorii pot ascunde comenzi maliţioase în corpul unui e-mail folosind tehnici de camuflare precum text alb pe fundal alb, dimensiuni invizibile de font sau coduri ascunse în structura HTML.
Deşi utilizatorul nu vede aceste instrucţiuni, Gemini le detectează şi le urmează atunci când generează rezumatul mesajului. Cercetătorii au demonstrat cum un atacator poate determina AI-ul să afişeze un mesaj fals care pretinde că un cont Gmail a fost compromis şi solicită apelarea unui număr de telefon, sub pretextul unei verificări de securitate. Rezultatul: utilizatorul intră în contact direct cu atacatorul, crezând că are de-a face cu o alertă legitimă.
Pericolul nu ţine doar de natura atacului, ci şi de încrederea excesivă pe care utilizatorii o au în textele generate de AI. Un rezumat automat pare obiectiv şi sigur, ceea ce face ca manipularile să fie cu atât mai greu de detectat. Cercetătorii avertizează că prompt injection ar putea deveni „noua macro e-mail” – un vector de atac cu potenţial ridicat în mediile de business.
Mai grav, tehnica nu se limitează doar la Gmail. Se poate aplica şi în alte servicii din suita Google Workspace, inclusiv Google Docs, Slides sau funcţiile AI din motorul de căutare. Într-un scenariu extins, un atacator ar putea compromite un cont şi trimite în masă e-mailuri, newslettere sau documente aparent inofensive, dar care includ instrucţiuni ascunse capabile să păcălească AI-ul.
Ca răspuns, Google a anunţat că lucrează la o strategie de securitate „în mai multe straturi” pentru a combate acest tip de atac. Totuşi, experţii avertizează că problema este dificil de rezolvat în profunzime, deoarece AI-ul se bazează pe înţelegerea contextuală a limbajului, ceea ce îl face vulnerabil la manipulări subtile şi neintenţionate.
Această breşă semnalează nu doar o problemă tehnologică, ci o chestiune de ritm şi responsabilitate în dezvoltarea AI. Introducerea în masă a funcţiilor automate fără protecţie suficientă riscă să transforme inovaţia într-un punct slab al securităţii cibernetice. Cazul Gemini este un avertisment clar că, înainte de a implementa pe scară largă inteligenţa artificială, marile companii trebuie să pună pe primul loc protecţia utilizatorilor, nu viteza lansărilor.