08 NOIEMBRIE 2025 - Monitorul de Galați - Ediție regională de sud-est Galați Brăila Buzău Constanța Tulcea Vrancea
Modifică setările cookie-urilor
Monitorul de Galati iOS App Monitorul de Galati Android Google Play App
Studiu OpenAI: halucinaţiile modelelor AI provin din modul de antrenare, nu din date greşite
Studiu OpenAI: halucinaţiile modelelor AI provin din modul de antrenare, nu din date greşite

Un studiu realizat de cercetători de la OpenAI şi Georgia Institute of Technology arată că halucinaţiile modelelor de inteligenţă artificială nu sunt cauzate de datele incorecte, ci de modul în care aceste sisteme sunt instruite să răspundă. Modelele lingvistice de mari dimensiuni, precum cele care stau la baza platformelor ChatGPT, sunt concepute să ofere răspunsuri sigure şi coerente, chiar şi atunci când nu cunosc răspunsul corect.
Autorii explică faptul că aceste modele nu sunt antrenate să spună „nu ştiu”, ci să ghicească. Performanţa lor este măsurată prin teste care recompensează încrederea şi penalizează ezitarea, fără a lua în calcul onestitatea sau acurateţea. Astfel, atunci când întâlnesc întrebări ambigue sau fără soluţii clare, modelele tind să „blufeze” în loc să-şi recunoască limitele.
Cercetarea, publicată în octombrie 2025, demonstrează matematic că rata totală de eroare a unui model va fi întotdeauna de cel puţin două ori mai mare decât rata sa de clasificare corectă a faptelor, ceea ce face imposibilă atingerea unei precizii totale. „Nu vom ajunge niciodată la 100% acurateţe, dar asta nu înseamnă că modelele trebuie să halucineze”, afirmă Adam Kalai, cercetător la OpenAI şi coautor al studiului.
Potrivit lui Kalai, modelele ar putea învăţa să recunoască necunoscutul dacă sistemele de evaluare ar recompensa onestitatea şi autoevaluarea, nu doar siguranţa în exprimare. Însă o astfel de schimbare ar afecta direct modelul economic al companiilor de AI. Wei Xing, cercetător la Universitatea din Sheffield, remarcă: „Dacă un chatbot ar admite prea des că nu ştie, utilizatorii ar căuta răspunsurile în altă parte.”
În prezent, testele de performanţă acordă punctaj maxim unui răspuns corect şi zero pentru un răspuns greşit sau o non-reacţie. Această abordare îi determină pe dezvoltatori să optimizeze modelele pentru răspunsuri aparent sigure, chiar şi atunci când acestea sunt false.
Unii specialişti, precum Carlos Jimenez de la Princeton, consideră realistă reformarea acestor teste, dar dificil de aplicat din cauza diversităţii domeniilor şi a dificultăţii de a evalua incertitudinea. Alţii, precum Hao Peng de la Universitatea din Illinois, avertizează că modelele AI ar putea exploata rapid orice nou sistem de evaluare.
În contextul costurilor tot mai mari de procesare şi energie, companiile de inteligenţă artificială ezită să implementeze schimbări radicale. Economistul Servaas Storm, de la Universitatea Tehnică din Delft, atrage atenţia că doar 5% dintre utilizatorii ChatGPT plătesc abonamentul lunar de 20 de dolari, iar reducerea interacţiunilor „atractive” ar putea afecta veniturile.
Studiul concluzionează că pentru ca modelele AI să devină mai precise, ele trebuie învăţate să accepte incertitudinea. Totuşi, un chatbot care spune prea des „nu ştiu” riscă să fie perceput ca inutil, chiar dacă în realitate ar fi mai onest şi mai sigur.


Articole înrudite