OpenAI recunoaşte că modul de antrenare a modelelor de inteligenţă artificială a contribuit direct la fenomenul numit „halucinaţii”, adică răspunsuri false formulate cu încredere, dar fără acoperire factuală. Compania susţine că lucrează deja la corectarea acestei erori structurale, care afectează întreaga industrie AI.
Halucinaţiile sunt una dintre cele mai mari probleme ale modelelor lingvistice avansate, inclusiv ale celor mai recente. Deşi dezvoltarea şi operarea acestor sisteme costă miliarde de dolari, ele continuă să ofere răspunsuri incorecte atunci când nu dispun de suficiente date.
Cercetătorii OpenAI explică faptul că problema provine din modul în care modelele sunt evaluate. În prezent, răspunsurile corecte sunt recompensate, iar cele greşite sunt penalizate. Totuşi, dacă un model recunoaşte că nu ştie, situaţia este tratată ca un eşec, ceea ce încurajează „ghicitul”. În timp, acest mecanism duce la un comportament prin care modelele preferă să inventeze explicaţii decât să îşi exprime incertitudinea.
Specialiştii avertizează că fenomenul s-ar putea intensifica pe măsură ce modelele devin mai complexe, ridicând semne de întrebare cu privire la fiabilitatea lor. Într-un articol recent, OpenAI a admis că strategia de antrenament folosită până acum a fost greşită şi a influenţat întreaga industrie. Compania propune modificarea criteriilor de evaluare, astfel încât erorile comise cu încredere să fie penalizate mai sever decât exprimarea incertitudinii, iar modelele care îşi recunosc limitele să fie recompensate parţial.
Această ajustare ar putea încuraja sistemele să indice atunci când nu au suficiente informaţii, reducând frecvenţa halucinaţiilor şi permiţând dezvoltarea unor modele mai nuanţate, capabile să exprime nivelul de siguranţă al răspunsurilor.
Deşi OpenAI afirmă că GPT-5 produce mai puţine halucinaţii, utilizatorii rămân sceptici şi cer mai multe dovezi privind eficienţa noilor metode. Industria AI se confruntă astfel cu provocarea de a justifica investiţiile uriaşe şi impactul ecologic al acestor tehnologii, în timp ce încearcă să reducă erorile fundamentale. OpenAI promite să continue eforturile pentru a face modelele mai sigure şi mai apropiate de realitate.