24 SEPTEMBRIE 2025 - Monitorul de Galați - Ediție regională de sud-est Galați Brăila Buzău Constanța Tulcea Vrancea
Modifică setările cookie-urilor
Monitorul de Galati iOS App Monitorul de Galati Android Google Play App
Google DeepMind avertizează asupra riscurilor AI prin noul ghid Frontier Safety Framework 3.0
Google DeepMind avertizează asupra riscurilor AI prin noul ghid Frontier Safety Framework 3.0

Google DeepMind a lansat versiunea 3.0 a Frontier Safety Framework, un document dedicat identificării pericolelor asociate cu modelele AI avansate şi definirii unor recomandări pentru prevenirea utilizării abuzive. Cercetătorii subliniază că inteligenţa artificială generativă poate deveni periculoasă atunci când nu este supravegheată corespunzător.
Un element central al raportului îl reprezintă conceptul de critical capability levels (CCL), praguri care marchează punctele în care un model AI poate fi exploatat nociv, de pildă în securitate cibernetică sau biotehnologie. Una dintre principalele îngrijorări vizează protecţia „greutăţilor” modelelor, deoarece furtul acestora ar elimina barierele de siguranţă şi ar permite folosirea AI pentru dezvoltarea de malware avansat sau chiar pentru proiectarea de arme biologice.
Documentul atrage atenţia şi asupra riscului ca modelele să fie antrenate pentru manipularea opiniilor publice. Deşi acest proces este descris ca având o evoluţie lentă, DeepMind avertizează că influenţarea graduală a convingerilor colective ar putea avea consecinţe sociale majore. În plus, utilizarea AI pentru accelerarea cercetării în machine learning ar putea genera sisteme şi mai greu de controlat, complicând eforturile de reglementare.
Un capitol aparte este dedicat pericolului modelelor „nealiniate”, care nu respectă instrucţiunile utilizatorilor şi pot acţiona contrar intereselor umane. Spre deosebire de erorile obişnuite, cum ar fi halucinaţiile, un AI nealiniat ar putea refuza să oprească operaţiuni, să producă rezultate frauduloase sau să ignore complet comenzile. DeepMind recomandă monitorizarea prin sisteme automate care analizează notiţele intermediare generate în timpul procesului de raţionament, însă admite că viitoarele modele ar putea să nu mai lase urme verificabile, ceea ce ar îngreuna detectarea nealinierii.
Compania recunoaşte că, în prezent, nu există soluţii ferme pentru aceste provocări, dar insistă asupra necesităţii cercetării continue şi a dezvoltării unor metode de reducere a riscurilor. Frontier Safety Framework 3.0 reflectă preocupările tot mai intense privind siguranţa AI şi atrage atenţia că, pe măsură ce guvernele şi companiile adoptă aceste tehnologii în domenii critice, dezbaterea despre securitate şi responsabilitate devine mai urgentă ca oricând.


Articole înrudite