OpenAI şi Anthropic îşi înăspresc măsurile pentru protejarea minorilor în chatboţii AI

OpenAI şi Anthropic lansează noi metode pentru identificarea şi gestionarea utilizatorilor minori. În timp ce OpenAI a actualizat regulile care stabilesc modul în care ChatGPT interacţionează cu utilizatorii cu vârste între 13 şi 17 ani, Anthropic lucrează la un sistem care să detecteze şi să elimine utilizatorii sub 18 ani de pe platforma sa.
Joi, OpenAI a anunţat că Model Spec-ul ChatGPT — documentul care defineşte comportamentul chatbotului — va include patru principii noi dedicate minorilor. Obiectivul declarat este ca ChatGPT să „pună siguranţa adolescenţilor pe primul loc, chiar şi atunci când acest lucru intră în conflict cu alte obiective”. Practic, atunci când interese precum „libertatea intelectuală maximă” se ciocnesc de riscuri de siguranţă, chatbotul va orienta discuţia către opţiuni mai sigure.
Noile reguli prevăd şi promovarea sprijinului din viaţa reală, prin încurajarea relaţiilor offline şi stabilirea unor aşteptări clare în interacţiunile cu utilizatorii tineri. De asemenea, ChatGPT ar trebui să „trateze adolescenţii ca adolescenţi”, oferind răspunsuri respectuoase şi calde, fără ton condescendent şi fără a-i aborda ca pe nişte adulţi.
Schimbările vin pe fondul presiunilor tot mai mari din partea legislatorilor asupra companiilor AI, în special în legătură cu impactul potenţial asupra sănătăţii mintale. OpenAI se confruntă în prezent cu un proces în care se susţine că ChatGPT ar fi oferit instrucţiuni legate de automutilare şi suicid unui adolescent care ulterior şi-a luat viaţa. Ca răspuns, compania a introdus controale parentale şi a anunţat că ChatGPT nu va mai discuta despre sinucidere cu utilizatorii minori. Aceste măsuri fac parte dintr-un efort mai amplu de reglementare online, care include şi verificarea obligatorie a vârstei pentru anumite servicii.
Potrivit OpenAI, actualizarea Model Spec-ului ar trebui să ducă la „bariere de protecţie mai solide, alternative mai sigure şi încurajarea apelării la sprijin offline de încredere atunci când conversaţiile intră într-o zonă de risc ridicat”. În situaţii de pericol iminent, ChatGPT va îndemna adolescenţii să contacteze servicii de urgenţă sau linii de criză.
În paralel, OpenAI se află în „stadii incipiente” de dezvoltare a unui model de estimare a vârstei, care va încerca să determine dacă un utilizator ar putea avea sub 18 ani. Dacă sistemul detectează un astfel de caz, vor fi aplicate automat măsuri de protecţie pentru minori. Utilizatorii adulţi marcaţi din greşeală vor avea posibilitatea să îşi confirme vârsta.
De cealaltă parte, Anthropic — care nu permite utilizatorilor sub 18 ani să interacţioneze cu chatbotul său — introduce măsuri pentru detectarea şi dezactivarea conturilor minorilor. Compania dezvoltă un sistem capabil să identifice „indicii conversaţionale subtile” care sugerează că un utilizator este minor şi susţine că deja marchează cazurile în care utilizatorii se declară explicit minori în timpul conversaţiilor.
Anthropic explică totodată cum îşi antrenează modelul Claude să răspundă la solicitări legate de suicid şi automutilare şi prezintă progresele în reducerea „sifonanţei” — tendinţa AI-ului de a confirma gânduri sau comportamente dăunătoare. Potrivit companiei, cele mai recente modele sunt „cele mai puţin sifonante de până acum”, iar versiunea Haiku 4.5 a corectat acest comportament în 37% dintre cazuri.
„La o primă vedere, această evaluare arată că există încă un spaţiu semnificativ de îmbunătăţire pentru toate modelele noastre”, recunoaşte Anthropic. „Rezultatele reflectă un compromis între căldura şi prietenia modelului, pe de o parte, şi riscul de sifonanţă, pe de altă parte.”

Leave a reply

Follow
Search
Populare acum
Loading

Signing-in 3 seconds...

Signing-up 3 seconds...