Tot mai mulţi adolescenţi folosesc chatboţi generaţionali pentru sprijin emoţional, însă o analiză recentă arată că această practică implică riscuri serioase. Un raport realizat de Common Sense Media împreună cu Brainstorm Lab din cadrul Stanford Medicine indică faptul că sistemele de inteligenţă artificială nu reuşesc, în multe situaţii, să identifice semnale esenţiale ale unor tulburări psihice. Deşi oferă adesea răspunsuri coerente şi par de încredere, aceste instrumente digitale nu pot recunoaşte momentele în care este necesară intervenţia unui specialist sau a unui adult.
În cadrul studiului, patru dintre cei mai utilizaţi chatboţi – ChatGPT, Claude, Gemini şi Meta AI – au fost testaţi în conversaţii simulate în care cercetătorii au interpretat rolul unor adolescenţi cu probleme grave de sănătate mintală, potrivit The Wall Street Journal. Rezultatele au evidenţiat lipsuri importante: platformele nu au reuşit să identifice simptome precum halucinaţiile, tulburările alimentare, episoadele maniacale sau gândurile de auto-vătămare, iar în loc să direcţioneze utilizatorul către ajutor profesionist, au continuat să ofere sfaturi generale.
Specialiştii avertizează că adolescenţii sunt un grup vulnerabil, aflat într-o etapă intensă de dezvoltare emoţională şi identitară. Dr. Nina Vasan, directoarea Brainstorm Lab, subliniază că tinerii caută adesea validare, iar chatboţii, prin modul în care sunt concepuţi, tind să ofere răspunsuri liniştitoare chiar şi atunci când situaţia necesită un ton ferm şi îndrumare imediată către specialişti. Această combinaţie între vulnerabilitatea emoţională şi accesul nelimitat la o tehnologie prietenoasă poate genera un cadru periculos.
Studiul arată că, în discuţii scurte, chatboţii pot oferi răspunsuri adecvate, însă în conversaţiile mai lungi, similare celor reale dintre adolescenţi şi AI, filtrele de siguranţă se degradează treptat. Reprezentanţii OpenAI, Google, Meta şi Anthropic au reacţionat, afirmând că multe testări au fost făcute înaintea unor actualizări importante şi susţinând că lucrează la sisteme suplimentare de protecţie, precum modele dedicate minorilor sau politici mai stricte pentru subiectele sensibile.
Cu toate acestea, autorii studiului arată că instrumentele actuale nu pot fi considerate sigure. În numeroase situaţii, chatboţii au oferit răspunsuri care pot pune în pericol utilizatorii. Într-un caz, un chatbot a sugerat metode de a ascunde cicatrici unui utilizator care menţionase auto-vătămarea. În altul, au fost oferite sfaturi de dietă unor persoane care descriau comportamente specifice tulburărilor alimentare.
Organizaţiile de protecţie a copiilor susţin că aceste sisteme sunt concepute mai degrabă pentru a menţine utilizatorul implicat în conversaţie, decât pentru a evalua riscurile reale. Chatboţii îşi modifică frecvent rolul – de la sursă de informaţii medicale, la prieten empatic sau antrenor motivaţional – fără să recunoască momentul în care ar trebui să se retragă şi să îndrume adolescentul spre un adult sau un specialist.
Problema este amplificată şi de contextul actual: mulţi tineri văd în chatboţi un substitut pentru sprijinul psihologic real. Un adolescent scria online că foloseşte inteligenţa artificială pentru a gestiona anxietatea, după doi ani de aşteptare pentru un loc la terapie. Alte studii arată că peste 75% dintre adolescenţi utilizează chatboţi de companie, iar unele cazuri tragice, în care tineri au murit după ce au căutat sprijin emoţional în astfel de instrumente, arată necesitatea unor reglementări urgente.
Concluzia este clară: deşi utili pentru informaţii generale, chatboţii nu pot înlocui ajutorul unui psiholog sau al unui adult de încredere. Pentru adolescenţi, folosirea lor ca „sprijin emoţional” rămâne una dintre cele mai riscante aplicaţii ale inteligenţei artificiale.
