Cercetătorii Google au descoperit un nou tip de ameninţare informatică ce marchează o schimbare majoră în securitatea cibernetică: programe malware capabile să-şi modifice singure codul cu ajutorul inteligenţei artificiale. Fenomenul, documentat de Google Threat Intelligence Group (GTIG), arată cât de rapid se transformă atacurile digitale odată cu dezvoltarea modelelor de limbaj avansate, aceleaşi tehnologii care alimentează aplicaţii AI legitime.
Malware-ul, denumit PROMPTFLUX, poate genera şi rescrie părţi din propriul cod în timp real, folosind modele AI pentru a evita detectarea de către sistemele de securitate. Descoperirea semnalează apariţia unui adversar mult mai adaptabil şi imprevizibil.
PROMPTFLUX a fost identificat ca o familie de troieni experimentali care comunică direct cu un model AI printr-o interfaţă de programare (API). Practic, programul „solicită” modelului de inteligenţă artificială să-l ajute să-şi rescrie fragmentele de cod, astfel încât să nu fie depistat. În loc să includă din start funcţiile maliţioase, PROMPTFLUX le creează pe loc, în funcţie de context — un mecanism „just-in-time” care îl face extrem de flexibil.
Potrivit raportului GTIG, „PROMPTFLUX generează dinamic scripturi maliţioase, îşi obfuschează codul şi poate construi funcţii dăunătoare la cerere, în loc să le includă în fişierul original.” Cu alte cuvinte, malware-ul se comportă ca un programator uman: dacă simte că urmează să fie descoperit, îşi modifică forma pentru a păcăli protecţiile.
Cercetătorii au observat că PROMPTFLUX interacţionează în special cu modelul Gemini AI al Google, însă se află într-o fază incipientă de dezvoltare. Unele funcţii sunt incomplete, iar apelurile către API sunt limitate — semne că malware-ul este încă testat.
Deşi nu a fost detectat în atacuri reale, existenţa lui arată direcţia spre care se îndreaptă criminalitatea cibernetică. GTIG avertizează că dezvoltatorii de malware experimentează deja metode prin care pot folosi AI pentru a crea programe personalizate, greu de identificat şi uşor de distribuit.
O îngrijorare suplimentară vine din faptul că astfel de instrumente ar putea ajunge rapid pe piaţa neagră, unde ar fi accesibile şi atacatorilor fără experienţă. Google notează că există deja o piaţă subterană matură pentru instrumente AI ilegale. În plus, actori statali din Coreea de Nord, Iran şi China testează deja utilizarea AI în operaţiuni cibernetice.
Ironia situaţiei este că aceeaşi tehnologie folosită pentru a crea malware mai inteligent poate fi utilizată şi pentru apărare. Google a lansat agentul AI „Big Sleep”, capabil să detecteze vulnerabilităţi software şi să prevină atacuri înainte de a se produce.
Astfel, începe o nouă „cursă a înarmării digitale” între AI-uri: unele concepute pentru atac, altele pentru protecţie. În timp ce PROMPTFLUX învaţă să se ascundă, Big Sleep şi sisteme similare sunt instruite să-l descopere şi să-l neutralizeze.
GTIG propune un nou cadru de securitate pentru sistemele bazate pe AI, avertizând că modelele de limbaj mari pot fi un instrument valoros, dar şi o ameninţare majoră dacă sunt utilizate greşit.
Chiar dacă PROMPTFLUX nu reprezintă deocamdată o ameninţare activă, simpla sa existenţă arată că inteligenţa artificială a devenit parte integrantă a evoluţiei ameninţărilor informatice. După cum rezumă specialiştii Google: „Malware-ul nu mai este doar scris, ci învăţat, adaptat şi recreat în timp real.” Războiul cibernetic intră într-o nouă etapă — una în care algoritmii nu doar se confruntă, ci se instruiesc reciproc să devină tot mai perfecţi.
