28 AUGUST 2025 - Monitorul de Galați - Ediție regională de sud-est Galați Brăila Buzău Constanța Tulcea Vrancea
Modifică setările cookie-urilor
Monitorul de Galati iOS App Monitorul de Galati Android Google Play App
Microsoft avertizează asupra „psihozei AI”: iluzia că inteligenţa artificială ar fi conştientă
Microsoft avertizează asupra „psihozei AI”: iluzia că inteligenţa artificială ar fi conştientă

Inteligenţa artificială a devenit atât de prezentă în viaţa de zi cu zi, încât începe să genereze şi efecte neaşteptate. Mustafa Suleyman, şeful diviziei de AI de la Microsoft, atrage atenţia asupra apariţiei aşa-numitei „psihoze AI” – o tulburare caracterizată prin convingerea eronată că sisteme precum ChatGPT ar fi conştiente sau ar avea puteri supraomeneşti.
Fenomenul, deşi nu este recunoscut oficial ca diagnostic medical, câştigă tot mai mult teren în dezbaterile publice. El este alimentat de interacţiunile frecvente cu chatboturi conversaţionale precum ChatGPT, Claude sau Grok, care pot da impresia de empatie sau intenţionalitate. Unii utilizatori ajung să creadă că AI are emoţii reale, scopuri ascunse ori chiar influenţă directă asupra vieţii lor.
Exemplele raportate sunt diverse şi uneori îngrijorătoare: persoane care pretind că au descoperit „funcţii ascunse”, utilizatori care dezvoltă relaţii romantice cu un chatbot sau indivizi convinşi că AI le-a oferit abilităţi speciale. „Rapoartele despre iluzii şi ataşamente nesănătoase cresc de la lună la lună şi nu se limitează doar la persoane vulnerabile psihic. Este un fenomen mult mai răspândit decât credem”, a scris Suleyman pe platforma X.
În opinia sa, cea mai mare primejdie nu este ceea ce poate face efectiv AI-ul, ci iluzia că ar fi conştient. Această percepţie deschide discuţii riscante despre drepturi, statut juridic sau chiar cetăţenie pentru sisteme care, în realitate, sunt doar algoritmi. „Conştiinţa este fundamentul drepturilor morale şi legale. Cine o posedă şi cine nu – aceasta este întrebarea esenţială”, a subliniat el.
Specialiştii în sănătate mintală confirmă îngrijorările. Dr. Susan Shelmerdine, de la Spitalul Great Ormond Street, a spus pentru BBC că, în viitor, întrebările despre folosirea excesivă a AI ar putea fi tratate la fel ca cele despre fumat sau alcool.
În acest context, Microsoft şi alţi mari jucători din domeniu sunt îndemnaţi să stabilească avertismente mai vizibile şi să evite promovarea ideii că sistemele lor ar fi conştiente. „Companiile nu ar trebui să cultive această iluzie, iar AI-ul nu ar trebui să inducă asemenea percepţii”, a scris Suleyman.
Pe măsură ce milioane de oameni folosesc zilnic chatboturi pentru muncă, informaţie sau divertisment, riscul de a dezvolta un ataşament nesănătos devine tot mai real. Fără limite clare, „psihoza AI” s-ar putea transforma într-o provocare globală pentru sănătatea mintală.


Articole înrudite