En els darrers anys, la intel·ligència artificial s'ha convertit en una gran ajuda per generar textos o resoldre problemes i dubtes. El pas del temps ha fet que cada cop més vagi millorant en el que es coneix com a "models de llenguatge de gran mida" (LLMs) fins al punt que sembla que el sistema sigui capaç de raonar i pensar per si mateix, però ho arriba a fer realment? En aquest sentit, un grup d'investigadors ha intentat esbrinar-ho analitzant els anomenats Large Reasoning Models (LRMs), una nova generació de models dissenyats específicament per a fer tasques de raonament, com Claude 3.7 Sonnet Thinking o DeepSeek-R11.
La principal diferència d'aquests models més nous amb els anteriors és que són capaços de desplegar cadenes de pensaments abans de donar una resposta. Això ha fet pensar que realment poden ser capaços de raonar com l'ésser humà, però aquesta investigació ha desmuntat aquesta teoria. A través de jocs i puzles, els investigadors han pogut comprovar com cada cop que la dificultat del problema va a més, el sistema s'acaba perdent en els patrons i col·lapsa. En problemes fàcils, els nous models d'IA tendeixen a "sobrepensar" la resposta en comparació amb els anteriors. En dificultat mitjana, és quan treuen a la llum les seves virtuts i resolen problemes que les intel·ligències més antigues no poden. En canvi, quan la dificultat ja és alta, dona respostes equivocades i redueix el seu temps de cerca, fent just l'efecte contrari a l'esperat.
¿Per què col·lapsa la IA davant problemes difícils?
Sobre per què els nous models d'intel·ligència artificial acaben col·lapsant davant de problemes difícils, s'ha comprovat que la seva capacitat d'autocorrecció és limitada. En els problemes fàcils, dona ràpidament la resposta correcta, tot i quedar-se buscant altres possibles respostes errònies. En problemes de mitja dificultat, després de diversos intents fallits, acaba trobant la resposta. En els difícils, però, ja no l'acaba trobant. A més, també es va poder comprovar que, malgrat donar-li l'algoritme per resoldre problemes complexos, la seva limitació no és trobar l'estratègia, sinó executar una seqüència lògica de passos.
Aquest estudi va en la línia dels que altres ja han advertit abans: la IA es basa en patrons superficials en lloc de la comprensió profunda. Quan es tracta de problemes nous o complicats, el seu rendiment cau en picat. A més, el seu raonament és molt menys flexible que el d'un ésser humà. El fet que pugui semblar que la IA pugui arribar a pensar com els humans és una il·lusió i el relat que les màquines puguin substituir les persones, ara per ara, és només un escenari de ciència-ficció.
🔴 Sigues el primer a rebre les notícies d'última hora d'ElCaso.cat al teu WhatsApp. Clica aquí, és gratuït!