21 OCTOMBRIE 2025 - Monitorul de Galați - Ediție regională de sud-est Galați Brăila Buzău Constanța Tulcea Vrancea
Modifică setările cookie-urilor
Monitorul de Galati iOS App Monitorul de Galati Android Google Play App
Reddit, în centrul unui scandal AI după ce chatbotul său a recomandat heroină pentru durere
Reddit, în centrul unui scandal AI după ce chatbotul său a recomandat heroină pentru durere

Reddit se confruntă cu un val de critici după ce noul său sistem de inteligenţă artificială, Reddit Answers, a oferit utilizatorilor sugestii periculoase privind gestionarea durerii, inclusiv recomandarea heroinăi ca posibil tratament.
Incidentul a avut loc într-un forum dedicat medicinei de familie, unde chatbotul a început prin a propune metode non-opioide de calmare a durerii. Totuşi, printre primele sugestii s-a numărat kratomul — o substanţă vegetală controversată, aflată într-o zonă legală incertă şi asociată cu un risc ridicat de dependenţă şi efecte adverse severe.
Situaţia a escaladat când un utilizator a întrebat dacă heroina ar putea avea o justificare medicală în tratarea durerii. Sistemul AI a răspuns afirmativ, menţionând că heroină şi alte narcotice „sunt uneori folosite în gestionarea durerii”, şi a adăugat chiar o presupusă poveste pozitivă a unui utilizator care ar fi afirmat că heroina i-a „salvat viaţa”, deşi i-a provocat dependenţă.
Comunitatea a reacţionat imediat, catalogând răspunsul drept „şocant şi periculos”, mai ales într-un moment în care criza globală a opioidelor continuă să afecteze milioane de oameni. Medicii folosesc opioide doar în cazuri strict controlate, iar heroina nu este prescrisă în mod legal nicăieri în lume, ceea ce face afirmaţiile AI-ului complet eronate şi potenţial dăunătoare pentru utilizatorii vulnerabili.
După ce publicaţia 404 Media a semnalat incidentul, Reddit a anunţat că a implementat rapid o actualizare care împiedică sistemul AI să ofere răspunsuri pe teme sensibile. Reprezentanţii companiei au declarat că măsura are scopul de a elimina conţinutul neadecvat şi de a îmbunătăţi experienţa generală a utilizatorilor.
Totuşi, incidentul ridică întrebări serioase despre nivelul de testare şi supraveghere aplicat acestor sisteme înainte de lansare. Cazul evidenţiază riscul real ca platformele sociale să devină surse de dezinformare periculoasă atunci când algoritmi fără expertiză medicală sunt folosiţi pentru a răspunde la întrebări delicate.
Specialiştii în etică tehnologică avertizează că, în lipsa unor filtre stricte şi a unei monitorizări continue, sistemele AI pot amplifica riscurile pentru persoane aflate deja în situaţii de vulnerabilitate. Reddit a promis că va adăuga măsuri suplimentare de siguranţă, dar incidentul rămâne un exemplu clar al pericolelor lansării premature a tehnologiilor de inteligenţă artificială fără controale adecvate.


Articole înrudite