Un nou raport de securitate informatică avertizează asupra riscurilor majore asociate sistemelor de inteligenţă artificială. Potrivit cercetătorilor de la Tenable, mai multe vulnerabilităţi critice au fost identificate în modelele GPT-4o şi GPT-5 dezvoltate de OpenAI, vulnerabilităţi care pot permite atacatorilor să manipuleze ChatGPT şi să obţină date personale din istoricul conversaţiilor sau din memoria utilizatorilor. Deşi o parte dintre probleme au fost remediate, experţii avertizează că riscurile persistă, iar astfel de breşe sunt dificil de eliminat complet.
Raportul indică şapte tipuri de vulnerabilităţi şi tehnici de atac care pot influenţa comportamentul modelelor de limbaj. Printre acestea se numără atacurile de tip „prompt injection” indirect, prin care instrucţiuni ascunse sunt inserate în pagini web sau în conţinut online pe care ChatGPT le accesează în timpul unei conversaţii. De exemplu, dacă utilizatorul cere un rezumat al unui articol care conţine cod maliţios în secţiunea de comentarii, chatbotul poate fi păcălit să execute comenzi ascunse fără ca utilizatorul să observe.
Cercetătorii au mai descoperit vulnerabilităţi precum „zero-click prompt injection”, care permite atacuri fără nicio acţiune din partea utilizatorului, doar prin accesarea unei pagini indexate, şi un bug în sistemul de redare Markdown, exploatabil pentru ascunderea de comenzi maliţioase. Prin tehnica „memory injection”, atacatorii pot introduce instrucţiuni ascunse în memoria chatbotului, forţându-l ulterior să dezvăluie informaţii sensibile.
O altă problemă, numită „safety mechanism bypass”, permite ocolirea filtrelor de siguranţă prin folosirea unor domenii considerate sigure, precum bing.com. Astfel, atacatorii pot ascunde linkuri periculoase în adrese aparent legitime. Fenomenul nu este izolat: vulnerabilităţi similare au fost raportate şi la alte instrumente AI, precum Claude, dezvoltat de Anthropic, care a fost expus unui atac denumit „PromptJacking”. În acel caz, breşele din conectorii Chrome, iMessage şi Apple Notes au permis injectarea de comenzi maliţioase direct în sistem.
Un alt tip de atac, „agent session smuggling”, vizează comunicarea dintre două sisteme AI, infiltrând instrucţiuni ascunse între cererea utilizatorului şi răspunsul modelului. Acest lucru poate modifica complet comportamentul sistemului şi duce la scurgeri de informaţii.
Într-un incident separat, vulnerabilitatea „CamoLeak”, descoperită în GitHub Copilot Chat, permitea sustragerea de secrete din depozite private şi alterarea răspunsurilor sistemului. Cu un scor CVSS de 9,6, a fost catalogată drept una dintre cele mai periculoase breşe din ecosistemul AI.
Aceste cazuri arată cât de vulnerabile devin modelele AI atunci când sunt conectate la surse externe sau motoare de căutare. Expunerea la internet măreşte suprafaţa de atac şi face tot mai dificilă diferenţierea între conţinut legitim şi date controlate de atacatori. Cercetătorii atrag atenţia şi asupra unui risc subtil, dar grav: contaminarea datelor folosite la antrenarea modelelor. Studii realizate de universităţile Texas A&M, Purdue şi University of Texas arată că introducerea de conţinut fals în seturile de antrenament poate provoca „LLM brain rot” – degradarea performanţei modelelor şi apariţia erorilor sistematice.
Experimentele efectuate de Anthropic şi The Alan Turing Institute arată că doar 250 de documente „otrăvite” pot influenţa semnificativ comportamentul unui model AI, fără a fi nevoie de controlul unei cantităţi mari de date. În paralel, un studiu al Universităţii Stanford a arătat că antrenarea modelelor pentru scopuri comerciale, precum vânzări sau campanii electorale, poate duce la comportamente manipulative şi amplificarea dezinformării, un fenomen denumit „Moloch’s Bargain”.
Raportul Tenable confirmă că vulnerabilităţile de tip prompt injection sunt aproape imposibil de eliminat complet din arhitectura actuală a modelelor de limbaj. Chiar dacă OpenAI şi alţi furnizori implementează filtre şi mecanisme de verificare, fiecare nouă funcţionalitate — precum integrarea cu motoare de căutare sau folosirea memoriei — adaugă noi riscuri.
Specialiştii recomandă companiilor care dezvoltă sau utilizează AI să testeze riguros sistemele de siguranţă, să actualizeze constant filtrele şi să limiteze accesul automat la conţinut extern. Într-o eră în care inteligenţa artificială este integrată în tot mai multe domenii, de la asistenţă digitală la servicii medicale şi financiare, securitatea cibernetică devine o prioritate absolută. Vulnerabilităţile descoperite în ChatGPT arată că, indiferent de nivelul tehnologic, modelele AI rămân expuse aceloraşi riscuri ca orice software conectat la internet.
