O dezvăluire recentă a stârnit controverse în rândul utilizatorilor ChatGPT, după ce OpenAI a recunoscut că anumite conversaţii pot fi analizate de moderatori umani şi, în cazurile considerate suficient de periculoase, raportate autorităţilor. Anunţul, strecurat într-o postare despre riscurile utilizării chatbotului pentru probleme de sănătate mintală, a declanşat o dezbatere aprinsă legată de etică, confidenţialitate şi limitele supravegherii.
Potrivit companiei, atunci când sunt detectate mesaje care sugerează intenţia de a răni alte persoane, acestea sunt direcţionate către „canale specializate”. O echipă restrânsă de angajaţi decide dacă situaţia justifică transmiterea informaţiilor către forţele de ordine. În cazul unei ameninţări iminente şi grave, OpenAI îşi rezervă dreptul de a alerta poliţia.
Măsura, deşi justificată prin ideea de prevenire a tragediilor, ridică întrebări majore. Cum reuşeşte compania să determine locaţia utilizatorilor pentru a transmite cazul autorităţilor? Ce garanţii există împotriva abuzurilor sau a situaţiilor în care cineva ar putea simula intenţii violente pentru a atrage poliţia asupra unei alte persoane? Şi, poate cel mai important, cât de mult subminează această practică promisiunea iniţială de confidenţialitate?
Reacţiile au fost rapide şi critice. Mulţi au atras atenţia că implicarea poliţiei în cazuri de criză psihică poate avea efecte fatale, existând precedente în care persoane aflate în suferinţă au murit în urma unor intervenţii brutale. Specialişti şi intelectuali au catalogat decizia drept o formă de supraveghere excesivă. „Stalin ar fi fost încântat”, a comentat istoricul Katherine Pickering Antonova, iar alţii au amintit de avertismentele lui Edward Snowden privind colaborarea companiilor tech cu serviciile de informaţii.
Juriştii au ridicat şi ei semne de întrebare. Avocatul Stephen Hardwick a avertizat că lipsa confidenţialităţii ar putea afecta grav practica juridică, unde întrebările adresate AI pentru redactarea documentelor ar putea ajunge, în cazuri sensibile, direct la poliţie.
Unii analişti cred că OpenAI este prinsă într-o situaţie imposibilă: criticată dacă nu protejează utilizatorii vulnerabili, dar şi dacă le monitorizează conversaţiile. Problema reală pare însă a fi ritmul cu care industria AI lansează produse insuficient înţelese şi insuficient reglementate. În loc să limiteze folosirea tehnologiei în scenarii riscante, soluţia propusă a fost apelul la autorităţi.
Pentru mulţi utilizatori, concluzia este clară: ChatGPT nu mai poate fi considerat un spaţiu sigur pentru confidenţe, nici măcar pentru întrebări personale. Deşi CEO-ul Sam Altman promitea recent o protecţie comparabilă cu cea oferită de medici sau avocaţi, realitatea arată altfel. Noua politică transmite un mesaj limpede: eşti mereu observat şi, în anumite condiţii, raportat.
Această tensiune dintre protejarea vieţilor şi respectarea vieţii private va defini inevitabil următoarea etapă a dezbaterii despre inteligenţa artificială. Întrebarea de fond rămâne: cât suntem dispuşi să sacrificăm din confidenţialitate pentru siguranţă şi cine decide unde se trage linia?