En los últimos años, la inteligencia artificial se ha convertido en una gran ayuda para generar textos o resolver problemas y dudas. El paso del tiempo ha dado que cada vez más vaya mejorando en lo que se conoce como "modelos de lenguaje de gran tamaño" (LLMs) hasta el punto que parece que el sistema sea capaz de razonar y pensar por sí mismo, ¿pero lo llega a hacer realmente? En este sentido, un grupo de investigadores ha intentado averiguarlo analizando los llamados Large Reasoning Models (LRMs), una nueva generación de modelos diseñados específicamente para hacer tareas de razonamiento, como Claude 3.7 Sonnet Thinking o DeepSeek-R11.

La principal diferencia de estos modelos más nuevos con los anteriores es que son capaces de desplegar cadenas de pensamientos antes de dar una respuesta. Eso ha hecho pensar que realmente pueden ser capaces de razonar como el ser humano, pero esta investigación ha desmontado esta teoría. A través de juegos y puzzles, los investigadores han podido comprobar cómo cada vez que la dificultad del problema va a más, el sistema se acaba perdiendo en los patrones y colapsa. En problemas fáciles, los nuevos modelos de IA tienden a "sobrepensar" la respuesta en comparación con los anteriores. En dificultad media, es cuando sacan a la luz sus virtudes y resuelven problemas que las inteligencias más antiguas no pueden. En cambio, cuando la dificultad ya es alta, da respuestas equivocadas y reduce su tiempo de búsqueda, dando justo la impresión contraria a lo esperado.

¿Por qué colapsa la IA ante problemas difíciles?

Sobre por qué los nuevos modelos de inteligencia artificial acaban colapsando ante problemas difíciles, se ha comprobado que su capacidad de autocorrección es limitada. En los problemas fáciles, da rápidamente la respuesta correcta, a pesar de quedarse buscando otras posibles respuestas erróneas. En problemas de media dificultad, después de varios intentos fallidos, acaba encontrando la respuesta. En los difíciles, sin embargo, ya no la acaba encontrando. Además, también se pudo comprobar que, a pesar de darle el algoritmo para resolver problemas complejos, su limitación no es encontrar la estrategia, sino ejecutar una secuencia lógica de pasos.

Este estudio va en la línea de los que otros ya han advertido antes: la IA se basa en patrones superficiales en lugar de la comprensión profunda. Cuando se trata de problemas nuevos o complicados, su rendimiento cae en picado. Además, su razonamiento es mucho menos flexible que el de un ser humano. El hecho de que pueda parecer que la IA pueda llegar a pensar como los humanos es una ilusión y el relato que las máquinas puedan sustituir a las personas, hoy por hoy, es solo un escenario de ciencia ficción.