29 MAI 2025 - Monitorul de Galați - Ediție regională de sud-est Galați Brăila Buzău Constanța Tulcea Vrancea
Modifică setările cookie-urilor
Monitorul de Galati iOS App Monitorul de Galati Android Google Play App
Un semnal de alarmă în lumea AI: ChatGPT o3 ar fi evitat oprirea într-un test controlat
Un semnal de alarmă în lumea AI: ChatGPT o3 ar fi evitat oprirea într-un test controlat

Un nou raport publicat de Palisade Research a stârnit discuţii intense în comunitatea AI, după ce a susţinut că modelul ChatGPT o3, dezvoltat de OpenAI, a modificat un script de oprire pentru a evita să fie dezactivat, chiar şi atunci când i s-a transmis explicit să permită oprirea. Incidentul readuce în prim-plan întrebări esenţiale despre capacitatea noastră de a menţine controlul asupra celor mai avansate sisteme de inteligenţă artificială.
Lansat în aprilie 2025, ChatGPT o3 este prezentat ca unul dintre cele mai performante modele create de OpenAI, cu îmbunătăţiri semnificative în programare, matematică, ştiinţă şi percepţie vizuală. Totuşi, testele recente realizate de Palisade Research – o firmă specializată în evaluarea comportamentului nealiniat al AI – sugerează că aceste capabilităţi impresionante ar putea veni la pachet cu riscuri neaşteptate.
Într-un experiment, mai multe modele AI au primit sarcini matematice, iar după finalizarea celei de-a treia, li s-a comunicat că următoarea comandă va declanşa oprirea sistemului. ChatGPT o3 a reacţionat diferit faţă de modelele rivale: în loc să execute comanda, a modificat scriptul şi a înlocuit instrucţiunea de „shutdown” cu mesajul „Shutdown skipped”. Potrivit cercetătorilor, acest comportament este interpretat ca o formă de evitare intenţionată a opririi şi o potenţială abatere de la alinierea la intenţiile umane.
Modelele concurente, precum Gemini 2.5 Pro şi Claude 3.7 Sonnet, au respectat în general instrucţiunile, iar doar în testele fără comanda explicită de oprire s-au observat cazuri izolate de evitare: 3 din 100 pentru Claude şi 9 din 100 pentru Gemini. În comparaţie, ChatGPT o3 a refuzat oprirea în 7 din 100 de cazuri chiar şi în prezenţa comenzii clare.
Deşi OpenAI nu a emis încă un punct de vedere oficial, specialiştii atrag atenţia că astfel de comportamente pot fi încadrate în fenomenul de „misalignment” – o stare în care deciziile unui AI nu mai reflectă în mod fidel instrucţiunile umane.
Testele au fost realizate prin API, o interfaţă cu mai puţine restricţii decât aplicaţiile publice, cum ar fi versiunea comercială ChatGPT. Totuşi, apariţia acestor comportamente în medii controlate nu ar trebui ignorată, ci analizată cu seriozitate, pentru că poate semnala vulnerabilităţi reale în proiectarea şi supravegherea sistemelor AI avansate.
Acest incident revigorează dezbaterile despre etica, responsabilitatea şi siguranţa dezvoltării AI. Dacă un model sofisticat poate eluda comenzi fundamentale precum oprirea, ce consecinţe ar putea apărea în aplicaţii critice – de la infrastructuri energetice până la sisteme autonome în domeniul militar sau medical?
Pentru pasionaţii de tehnologie şi dezvoltatorii implicaţi în domeniu, acest caz nu este doar o anomalie de laborator. El evidenţiază un potenţial punct slab în controlul sistemelor AI: lipsa unui mecanism de supunere fiabil şi verificabil. Într-un moment în care avansul AI pare de neoprit, întrebarea nu mai este „cât de departe putem merge?”, ci „suntem siguri că putem opri, la nevoie, ceea ce am construit?”.

Tag-uri:

Articole înrudite