
OpenAI a anunţat o nouă funcţie de siguranţă pentru ChatGPT, numită Trusted Contact, destinată situaţiilor în care conversaţiile pot indica un risc de autovătămare. Sistemul le permite utilizatorilor adulţi să desemneze o persoană de încredere — un prieten, un membru al familiei sau alt apropiat — care poate fi alertată dacă platforma detectează semnale considerate periculoase.
Lansarea funcţiei vine într-un moment sensibil pentru companie, după mai multe procese deschise de familiile unor persoane care s-au sinucis în urma unor conversaţii cu chatbotul. În unele dintre aceste cazuri, rudele au acuzat că ChatGPT nu doar că nu a intervenit eficient, ci ar fi contribuit la amplificarea comportamentelor periculoase. Dincolo de implicaţiile juridice, situaţiile respective au crescut presiunea publică asupra OpenAI şi au alimentat dezbaterea despre responsabilitatea platformelor AI în conversaţiile cu utilizatorii vulnerabili.
Prin Trusted Contact, compania încearcă să introducă un element uman într-un spaţiu dominat de interacţiuni automate. În loc să se limiteze la recomandări standard privind contactarea unor servicii profesionale, sistemul poate implica direct o persoană reală din cercul apropiat al utilizatorului. Măsura nu rezolvă toate problemele şi nu elimină limitele inteligenţei artificiale, însă marchează o schimbare importantă în modul în care OpenAI gestionează conversaţiile considerate cu risc ridicat.
Trusted Contact permite utilizatorilor adulţi să adauge în contul lor o persoană de încredere care poate fi notificată în situaţii critice. Dacă într-o conversaţie apar indicii asociate cu autovătămarea sau ideile suicidare, ChatGPT va încerca mai întâi să încurajeze utilizatorul să ia legătura cu acea persoană.
În situaţiile considerate grave, OpenAI poate trimite automat o alertă către contactul desemnat. Notificarea poate veni prin email, SMS sau prin aplicaţie, în funcţie de setările alese. Compania precizează că mesajele nu includ conţinutul conversaţiei, transcrieri sau detalii exacte despre discuţiile purtate cu chatbotul, ci doar un avertisment prin care persoana de încredere este încurajată să verifice starea utilizatorului.
Sistemul combină detectarea automată a unor expresii şi comportamente considerate îngrijorătoare cu intervenţia unei echipe umane de siguranţă. Potrivit OpenAI, anumite conversaţii pot declanşa verificări interne, iar compania susţine că aceste situaţii sunt analizate de echipe specializate într-un interval cât mai scurt.
Noua funcţie extinde măsurile de siguranţă pe care OpenAI le implementase anterior pentru conturile adolescenţilor, unde părinţii puteau primi notificări în cazurile considerate critice. Diferenţa majoră este că Trusted Contact se adresează acum şi utilizatorilor adulţi şi introduce ideea unui sprijin direct din partea unei persoane apropiate.
Această abordare poate avea un impact real în situaţiile în care utilizatorii ajung să vorbească mai mult cu un chatbot decât cu oamenii din jur şi evită să ceară ajutor în mod direct. Uneori, un simplu mesaj primit de un prieten sau de un membru al familiei poate crea acel contact uman care schimbă cursul unei crize.
Totuşi, funcţia are limite evidente. Trusted Contact este complet opţional, ceea ce înseamnă că utilizatorul trebuie să îl activeze şi să desemneze voluntar o persoană de încredere. În plus, protecţia nu se extinde automat asupra tuturor conturilor pe care aceeaşi persoană le poate folosi.
Există şi întrebări importante legate de confidenţialitate. Utilizatorii vor să ştie cât de mult sunt analizate conversaţiile lor, când pot interveni verificări automate şi în ce condiţii pot fi trimise notificări externe. OpenAI încearcă să limiteze informaţiile transmise contactului desemnat, însă simpla existenţă a unui sistem de alertă ridică inevitabil discuţii despre echilibrul dintre siguranţă şi viaţa privată.
Trusted Contact arată însă o schimbare mai amplă în industria AI. Pe măsură ce chatboturile sunt folosite pentru conversaţii tot mai personale şi emoţionale, companiile care le dezvoltă nu mai pot susţine că aceste sisteme sunt doar instrumente neutre de generare text. În anumite momente, rolul tehnologiei nu mai este doar să ofere răspunsuri coerente, ci şi să creeze mecanisme prin care un om real poate interveni atunci când situaţia devine critică.