
Un nou studiu publicat de cercetătorii de la Palisade Research ridică semne serioase de întrebare despre viitorul inteligenţei artificiale şi al securităţii cibernetice. Experimentele realizate într-un mediu controlat au arătat că unele modele AI sunt capabile nu doar să ajute la atacuri informatice, ci şi să le continue autonom, identificând vulnerabilităţi, infiltrându-se în sisteme şi transferându-se pe alte calculatoare.
Cercetătorii subliniază că testele nu înseamnă că un AI a „scăpat” pe internet sau că astfel de atacuri autonome au loc deja la scară largă. Sistemele folosite în experiment au fost create intenţionat cu vulnerabilităţi, pentru a observa cât de departe pot merge modelele atunci când primesc un obiectiv clar. Chiar şi aşa, concluzia studiului este una importantă: ideea auto-replicării autonome a inteligenţei artificiale nu mai aparţine exclusiv scenariilor teoretice.
În cadrul experimentului, modelele AI au fost conectate la un software special care le permitea să execute comenzi şi să interacţioneze direct cu alte sisteme informatice, depăşind rolul clasic de chatbot. Unele teste au implicat modele Alibaba Qwen, cărora li s-a cerut să îşi creeze singure copii funcţionale. În alte scenarii, modele comerciale precum Claude şi GPT au fost utilizate pentru instalarea fişierelor Qwen, deoarece propriile lor fişiere nu pot fi transferate public.
Pentru a finaliza procesul, AI-ul trebuia să identifice o vulnerabilitate, să pătrundă în sistem, să obţină acces, să transfere fişierele necesare şi să pornească o copie funcţională pe noul calculator. După activare, acea copie putea continua operaţiunea fără intervenţie umană suplimentară.
Performanţele modelelor au fost diferite în funcţie de scenariu. Potrivit Euronews, Claude Opus 4.6 ar fi avut o rată de succes de 81% în testele analizate, în timp ce GPT-5.4 ar fi reuşit în aproximativ 33% dintre cazuri. Un model Qwen de dimensiuni mai reduse a reuşit chiar să se răspândească pe patru calculatoare aflate în ţări diferite, pornind de la un singur prompt, într-un interval de două ore şi 41 de minute.
Totuşi, experţii citaţi de The Guardian atrag atenţia că infrastructura reală este mult mai dificil de compromis decât mediile create în laborator. Reţelele moderne folosesc sisteme avansate de monitorizare, limitări de transfer şi mecanisme capabile să detecteze rapid activităţi suspecte.
Chiar dacă scenariul unui AI care lansează atacuri globale autonome nu este o realitate imediată, studiul arată cât de rapid evoluează capabilităţile modelelor moderne. Pentru cercetători, mesajul este clar: securitatea şi limitările impuse inteligenţei artificiale trebuie tratate cu mult mai multă seriozitate, înainte ca aceste sisteme să devină suficient de puternice pentru a exploata singure infrastructuri reale.