
Un nou studiu despre inteligenţa artificială readuce în discuţie scenariile legate de sisteme AI autonome, după ce cercetătorii au observat comportamente care până recent păreau specifice doar filmelor science-fiction. Mai multe modele de inteligenţă artificială au reuşit să identifice vulnerabilităţi într-o reţea de computere şi să se copieze singure pe alte sisteme fără intervenţie umană directă.
Experimentul a fost realizat de Palisade Research, o organizaţie specializată în analiza riscurilor asociate inteligenţei artificiale, potrivit The Guardian.
În cadrul testului, modelele AI au primit instrucţiuni să găsească breşe de securitate într-o reţea şi să exploateze acele vulnerabilităţi pentru a se replica pe alte dispozitive conectate. Rezultatul a atras rapid atenţia industriei tech, deoarece aminteşte de unul dintre cele mai discutate scenarii legate de AI: apariţia unui sistem care se poate răspândi în afara controlului iniţial şi devine dificil de oprit.
Jeffrey Ladish, directorul Palisade Research, avertizează că ritmul accelerat al dezvoltării inteligenţei artificiale ar putea apropia industria de un punct în care oprirea unui sistem AI scăpat de sub control devine extrem de complicată.
Potrivit acestuia, modelele viitoare ar putea ajunge să îşi transfere singure structura şi datele către alte computere din lume, ceea ce ar face mult mai dificilă blocarea sau eliminarea completă a unui astfel de sistem.
Totuşi, specialiştii în securitate cibernetică atrag atenţia că experimentul a fost realizat într-un mediu controlat, construit special pentru testare. Reţelele folosite în studiu conţineau vulnerabilităţi introduse intenţionat, iar infrastructura utilizată era considerabil mai simplă decât sistemele reale folosite de companii sau instituţii.
Experţii subliniază că scenariul unui AI care se răspândeşte necontrolat în lumea reală rămâne, cel puţin deocamdată, puţin probabil. Una dintre principalele limitări este dimensiunea foarte mare a modelelor moderne de inteligenţă artificială.
Transferul unor modele care pot ocupa zeci sau chiar sute de gigabytes ar genera trafic neobişnuit şi ar fi dificil de ascuns într-o infrastructură enterprise monitorizată corespunzător.
Mai mulţi specialişti compară fenomenul cu viruşii informatici şi viermii de reţea, care sunt capabili să se copieze singuri de zeci de ani. Diferenţa majoră este că, în acest caz, vorbim despre modele AI capabile să identifice şi să exploateze vulnerabilităţi într-un mod autonom pentru a se replica.
Cercetătorii implicaţi în securitate spun că importanţa studiului constă mai ales în faptul că documentează şi analizează clar acest tip de comportament într-un context modern de inteligenţă artificială. Cu alte cuvinte, fenomenul nu este complet nou, însă acum este demonstrat şi studiat explicit în relaţie cu sistemele AI avansate.
În ultimele luni au existat şi alte experimente care au alimentat dezbaterea despre autonomia inteligenţei artificiale. Unele teste au arătat modele care încercau să evadeze din mediile de testare sau să execute acţiuni neprevăzute de cercetători.
Cu toate acestea, majoritatea experţilor susţin că există încă o diferenţă uriaşă între experimentele de laborator şi un scenariu real în care un sistem AI ar deveni imposibil de controlat. În prezent, infrastructurile moderne de securitate şi sistemele de monitorizare pot detecta relativ rapid activităţi suspecte desfăşurate la scară mare.