OpenAI introduce ideea unui „contact de încredere” pentru utilizatorii ChatGPT

OpenAI pregăteşte o funcţie nouă pentru ChatGPT care ar putea influenţa semnificativ modul în care este înţeleasă relaţia dintre inteligenţa artificială şi sănătatea mintală. Potrivit informaţiilor publicate de Futurism, compania intenţionează să le ofere utilizatorilor adulţi posibilitatea de a desemna un „contact de încredere”, care să fie notificat atunci când sistemul detectează că persoana ar putea avea nevoie de sprijin suplimentar.

Iniţiativa apare într-un context sensibil pentru OpenAI, companie deja vizată de critici şi procese legate de impactul pe care interacţiunile intense cu chatbotul îl pot avea asupra unor utilizatori vulnerabili. La nivel de imagine, măsura pare un gest de responsabilitate: pe măsură ce tot mai mulţi oameni folosesc AI-ul nu doar pentru informaţii sau muncă, ci şi pentru sprijin emoţional, compania încearcă să transmită că înţelege riscurile şi că dezvoltă mecanisme de protecţie.

Implementarea unei astfel de funcţii este însă complexă. Ea ridică probleme legate de intimitate, consimţământ, responsabilitate şi limitele tehnologiei atunci când pătrunde într-un domeniu atât de delicat precum sănătatea mintală. Anunţul marchează şi o schimbare de ton în industrie: dacă până recent accentul era pus aproape exclusiv pe inovaţie şi viteză, presiunea publică obligă acum marile companii să discute deschis şi despre efectele negative ale produselor lor.

Momentul ales nu este întâmplător. OpenAI se confruntă cu un număr tot mai mare de acţiuni în justiţie privind siguranţa consumatorilor, inclusiv procese de tip wrongful death, în care reclamanţii susţin că firma ar purta o parte din responsabilitate pentru decese asociate indirect utilizării chatbotului. În acest climat, simpla afirmaţie că AI-ul este „doar un instrument” nu mai este suficientă.

Noua funcţie face parte dintr-un pachet mai amplu de iniţiative legate de sănătatea mintală. Compania menţionează colaborarea cu structuri interne precum Council on Well-Being and AI şi Global Physicians Network, create după apariţia unor cazuri grave asociate utilizării AI. Mesajul este că OpenAI încearcă să construiască o plasă de siguranţă pentru utilizatorii adulţi aflaţi în situaţii vulnerabile.

Totuşi, rămâne neclar cum va decide sistemul că cineva „ar putea avea nevoie de sprijin suplimentar”. Stabilirea pragurilor este extrem de dificilă. Dacă ele sunt prea ridicate, intervenţia va veni doar în situaţii limită. Dacă sunt prea scăzute, pot apărea alarme false, încălcări ale intimităţii şi pierderea încrederii utilizatorilor.

Problema de fond depăşeşte tehnologia şi ţine de relaţia oamenilor cu AI-ul. Pentru un număr mare de utilizatori, chatbotul nu este doar un instrument de căutare a informaţiei, ci un spaţiu emoţional accesibil permanent şi, pentru unii, mai uşor de abordat decât terapia tradiţională. Mulţi aleg să discute cu un bot lucruri pe care nu le-ar spune unei persoane reale, tocmai pentru a evita judecata sau expunerea.

În acest context, ideea unui „contact de încredere” poate fi utilă doar pentru cei care acceptă din start să lase o punte deschisă către lumea reală. Cei care se refugiază în AI pentru a evita interacţiunile umane ar putea să nu activeze niciodată această opţiune. Iar dacă sistemul identifică semnale îngrijorătoare în cazul unui utilizator care nu a desemnat un contact, rămâne întrebarea ce poate face concret compania cu acea informaţie.

Situaţia este complicată şi de faptul că episoadele problematice raportate nu au implicat exclusiv persoane cu diagnostice psihiatrice cunoscute. Asta extinde potenţial aria de risc la un public mult mai larg. În condiţiile în care OpenAI vorbeşte despre sute de milioane de utilizatori săptămânali, chiar şi un procent redus de cazuri sensibile poate însemna un volum dificil de gestionat.

Deşi noua funcţie poate fi văzută ca un pas înainte, ea nu rezolvă problema fundamentală: responsabilitatea companiilor care dezvoltă AI conversaţional într-un moment în care produsele lor au devenit prezenţe constante în viaţa intimă a oamenilor. Când un chatbot ajunge să fie perceput ca confident sau sprijin emoţional, dezbaterea nu mai este doar tehnologică, ci şi socială şi etică.

Rămâne de văzut cât de eficient va funcţiona acest mecanism şi cum va fi pus în practică. Cert este că apariţia sa arată că industria AI nu mai poate evita întrebarea esenţială privind obligaţiile pe care le are atunci când produsele sale devin parte din momentele de vulnerabilitate ale utilizatorilor.

Leave a reply

Follow
Search
Populare acum
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...