Inteligența Artificială „s-a prăbușit complet” în fața unor probleme complexe, conform unui nou studiu

Data publicării:
AI Chatbot service smart digital customer service.Artificial intelligence and service automation technology concept.man chatting with chatbot via application with speech bubble on virtual screen.
Foto: Profimedia Images

Cercetătorii Apple au descoperit „limitări fundamentale” în modelele de inteligență artificială de ultimă generație, într-un articol care ridică semne de întrebare cu privire la cursa industriei tehnologice pentru dezvoltarea unor sisteme din ce în ce mai puternice, transmite The Guardian.

Apple a afirmat într-un articol publicat la sfârșitul săptămânii că modelele de raționament de mari dimensiuni (LRM) – o formă avansată de IA – se confruntă cu o „prăbușire completă a acurateței” atunci când sunt confruntate cu probleme extrem de complexe.

S-a constatat că modelele standard de IA au depășit LRM-urile în sarcini cu complexitate redusă, în timp ce ambele tipuri de modele au suferit o „prăbușire completă” în sarcini cu complexitate ridicată. Modelele de raționament de mari dimensiuni încearcă să rezolve întrebări complexe generând procese de gândire detaliate care descompun problema în pași mai mici.

Studiul, care a testat capacitatea modelelor de a rezolva puzzle-uri, a adăugat că, pe măsură ce LRM-urile se apropiau de colapsul performanței, acestea au început să „își reducă efortul de raționament”. Cercetătorii Apple au declarat că au considerat acest lucru „deosebit de îngrijorător”.

Gary Marcus, un academician american care a devenit o proeminentă voce a precauției cu privire la capacitățile modelelor de IA, a descris articolul Apple ca fiind „destul de devastator”. Marcus a adăugat că descoperirile au ridicat întrebări cu privire la cursa către inteligența artificială generală (AGI), o etapă teoretică a IA în care un sistem este capabil să egaleze un om în îndeplinirea oricărei sarcini intelectuale.

Referindu-se la modelele lingvistice de mari dimensiuni [LLM] care stau la baza unor instrumente precum ChatGPT, Marcus a scris: „Oricine crede că LLM-urile sunt o cale directă către un tip de AGI care ar putea transforma fundamental societatea în bine se amăgește”.

Lucrarea a constatat, de asemenea, că modelele de raționament iroseau puterea de calcul găsind soluția potrivită pentru probleme mai simple la începutul „gândirii” lor. Cu toate acestea, pe măsură ce problemele deveneau puțin mai complexe, modelele explorau mai întâi soluții incorecte și ajungeau la cele corecte mai târziu.

Cu toate acestea, pentru probleme de complexitate mai mare, modelele intrau în „colaps”, nereușind să genereze soluții corecte. Într-un caz, chiar și atunci când li s-a furnizat un algoritm care ar fi rezolvat problema, modelele au eșuat.

Articolul afirma: „La apropierea de un prag critic – care corespunde îndeaproape punctului de colaps al preciziei lor – modelele încep, în mod contraintuitiv, să-și reducă efortul de raționament, în ciuda dificultății crescânde a problemei”.

Experții Apple au afirmat că acest lucru indica o „limitare fundamentală a capacităților de gândire ale modelelor actuale de raționament”.

Studiul a stabilit provocări de tip puzzle pentru LRM-uri, cum ar fi rezolvarea puzzle-urilor Turnul din Hanoi și Traversarea Râului. Cercetătorii au recunoscut că accentul pus pe puzzle-uri reprezenta o limitare a lucrării.

Studiul a concluzionat că abordarea actuală a IA ar fi ajuns la niște limite. Acesta a testat modele precum o3 de la OpenAI, Gemini Thinking de la Google, Claude 3.7 Sonnet-Thinking de la Anthropic și DeepSeek-R1. Anthropic, Google și DeepSeek au fost contactate pentru comentarii. OpenAI, compania din spatele ChatGPT, a refuzat să comenteze.

Referindu-se la „raționamentul generalizabil” – sau capacitatea unui model de IA de a aplica o concluzie restrânsă într-un mod mai larg – articolul afirma: „Aceste concluzii contestă ipotezele predominante despre capacitățile LRM și sugerează că abordările actuale ar putea întâmpina bariere fundamentale în calea raționamentului generalizabil”.

Andrew Rogoyski, de la Institutul pentru IA centrată pe oameni de la Universitatea din Surrey, a declarat că articolul Apple a semnalat că industria „încă se orientează” în ceea ce privește AGI și că industria ar fi ajuns într-un „impas” în abordarea sa actuală.

„Constatarea că modelele de raționament de mari dimensiuni pierd firul în cazul problemelor complexe, în timp ce funcționează bine în cazul problemelor de complexitate medie și redusă, implică faptul că ne aflăm într-un potențial impas în abordările actuale”, a afirmat el.

Editor : A.C.

Urmărește știrile Digi24.ro și pe Google News

Partenerii noștri
Playtech
Val de caniculă și furtuni în România. O noua atenționare ANM. Vin zile de foc, dar și vijelii, zonele vizate
Digi FM
Monica Bîrlădeanu, în robă, alături de mama ei, după ce a absolvit a doua facultate la 43 de ani. Cum a...
Pro FM
Fiul lui Cher, Elijah Blue Allman, spitalizat de urgență după o supradoză: „Este norocos că a supraviețuit”
Film Now
Dakota Johnson, val de critici despre industria de la Hollywood: „Totul e un haos!” Artista, revoltată de...
Adevarul
Ce părere aveau americanii despre români acum un secol jumătate. „Moldo-vlahii au fost poporul cel mai rău...
Newsweek
Toți pensionarii au pierdut la pensie între 64 de lei și 350 lei. Ce vești rele mai vin în 2025?
Digi FM
Nunta lui Jeff Bezos, programată la Veneţia, declanşează un val de nemulțumiri. Unii localnici acuză că...
Digi World
Ce efecte negative au dușurile foarte fierbinți. Avertismentul medicilor și sfaturi pentru temperatura ideală...
Digi Animal World
Cum a reușit un bărbat să-și dreseze pisicile pentru a zbura liniștit cu avionul: „Necesită răbdare...
Film Now
Filmul care debutează remarcabil în box office-ul nord-american, în timp ce „M:I8” trece de 500 milioane...
UTV
Hara, iubita lui Iustin Petrescu, reacție fermă după acuzațiile de violență: „Am toleranță aproape spre zero”