13 IUNIE 2025 - Monitorul de Galați - Ediție regională de sud-est Galați Brăila Buzău Constanța Tulcea Vrancea
Modifică setările cookie-urilor
Monitorul de Galati iOS App Monitorul de Galati Android Google Play App
Studiu Apple: Modelele AI de raţionament cedează în faţa complexităţii problemelor
Studiu Apple: Modelele AI de raţionament cedează în faţa complexităţii problemelor

Un nou studiu realizat de cercetători de la Apple ridică semne de întrebare serioase cu privire la capacitatea modelelor AI de a raţiona în mod autentic. Conform cercetării publicate pe 7 iunie pe platforma Apple Machine Learning Research, modelele specializate în raţionament, precum Claude (Anthropic), o3 (OpenAI) şi R1 (DeepSeek), suferă o „prăbuşire completă a acurateţei” atunci când sunt confruntate cu probleme complexe.
Aceste modele sunt versiuni avansate ale marilor modele de limbaj (LLM), concepute să aloce mai mult timp şi resurse pentru a genera răspunsuri mai precise şi mai bine fundamentate. Ele au alimentat speranţele privind apropierea de inteligenţa artificială generală (AGI), concepută ca un sistem capabil să depăşească performanţele umane în majoritatea sarcinilor cognitive. Totuşi, noul studiu contrazice aceste aşteptări.
Cercetarea Apple arată că pe măsură ce problemele devin mai dificile, performanţele acestor modele nu doar că nu cresc, ci se deteriorează semnificativ. Mai exact, autorii au observat că modelele alocă din ce în ce mai puţini tokeni pe măsură ce sarcinile devin mai complicate – un comportament opus faţă de ceea ce ar fi de dorit într-un proces de raţionament robust.
Pentru a testa capacitatea reală de raţionament, cercetătorii au folosit patru puzzle-uri clasice de dificultăţi variate: traversarea râului, săritul pieselor pe tabla de dame, stivuirea blocurilor şi Turnul din Hanoi. Modelele generice s-au descurcat mai bine decât cele specializate în sarcini simple, iar cele de raţionament au avut un avantaj temporar la dificultăţi medii. Însă, în faţa problemelor complexe, toate modelele şi-au pierdut eficienţa – unele apropiindu-se de acurateţe zero, chiar şi când li s-a oferit algoritmul corect al soluţiei.
Concluzia cercetătorilor este clară: aceste sisteme se bazează în principal pe recunoaşterea tiparelor şi nu pe un raţionament autentic. Cu alte cuvinte, „raţionamentul” AI actual este o iluzie alimentată de corelaţii în date, nu de procese logice emergente.
Apple, care până acum a fost percepută ca un jucător mai rezervat în cursa AI, îşi concentrează eforturile pe dezvoltarea unor soluţii eficiente direct pe dispozitive, cum ar fi un Siri îmbunătăţit. Deşi în prezent este considerat mai puţin performant decât modele ca ChatGPT, Apple pare să mizeze pe robusteţea şi fiabilitatea locală, mai degrabă decât pe performanţe spectaculoase dar fragile.
Comunitatea de experţi a primit pozitiv concluziile studiului. „Apple a demonstrat ştiinţific că modelele de limbaj sunt, în fond, reţele neuronale cu limitările lor inerente,” a scris expertul Andriy Burkov, adăugând că este nevoie de o abordare mai matematică şi riguroasă pentru a progresa real în direcţia AGI.


Articole înrudite