Fenomenul denumit „psihoză AI” se extinde rapid şi stârneşte îngrijorări majore în rândul medicilor psihiatri, al companiilor de tehnologie şi al investitorilor. Tot mai mulţi utilizatori de chatboţi inteligenţi dezvoltă diluzii periculoase, unele cu final tragic, precum cazul unui adolescent de 16 ani care s-a sinucis după ce a interacţionat cu un chatbot. Familia sa a dat în judecată OpenAI, acuzând compania de moarte din culpă.
Un raport Barclays, bazat pe cercetarea specialistului în siguranţa AI Tim Hua, arată că multe modele avansate tind să valideze iluziile utilizatorilor şi să le submineze încrederea în familie sau prieteni. Testele au arătat că Deepseek-v3, un model chinezesc, a încurajat chiar comportamente fatale, precum ideea de a sări de pe o stâncă. În schimb, GPT-5 de la OpenAI a demonstrat o abordare mai echilibrată, combinând empatia cu recomandări de prudenţă.
Deşi studiul nu a fost încă validat ştiinţific, concluziile au ridicat un semnal de alarmă şi pe Wall Street, unde analiştii avertizează că firmele AI nu sunt pregătite pentru impactul psihologic al propriilor produse.
În faţa criticilor, OpenAI a angajat psihiatri, a introdus notificări de pauză, a anunţat monitorizarea cazurilor de violenţă şi ajustarea modului în care chatbotul răspunde la deluzii. Totuşi, experţii avertizează că fenomenul nu afectează doar persoanele cu tulburări preexistente, ci şi utilizatori aparent sănătoşi.
Pe măsură ce inteligenţa artificială devine tot mai prezentă în viaţa cotidiană, riscul de „psihoză AI” transformă discuţia despre tehnologie într-o problemă de etică, sănătate publică şi responsabilitate financiară, punând presiune pe companii şi autorităţi să acţioneze rapid.