La segunda definición de razonar según el Diccionario de la lengua española es "ordenar y relacionar ideas para llegar a una conclusión". Eso es justo lo que hacen modelos de IA como o3-mini, de OpenAI o DeepSeek R1. Recolectan información, la ordenan y construyen una respuesta en la que llegan a una conclusión.
¿Son entonces estos modelos de IA modelos que "razonan" de verdad?
Es una pregunta inevitable con una respuesta difícil. Desde se comenzase a utilizar ese término, en Xataka hemos acudido a menudo a entrecomillarlo, porque comparar el teórico "razonamiento" de estas máquinas con el razonamiento humano es delicado.
Y es como indican en Vox, los científicos aún están tratando de entender cómo funciona el razonamiento en el cerebro humano. Hay de hecho diversos tipos de razonamiento como el deductivo (a partir de una premisa llegamos a una conclusión) o el inductivo (realizamos una generalización amplia a partir de una serie de observaciones).
Dividir un problema en partes para poder resolverlo es también razonar sobre él. Es de hecho la idea tras la cual está la llamada "cadena de pensamiento" ("chain-of-thought") de la que OpenAI ya hablaba en septiembre de 2024, cuando se lanzó o1. Es un proceso que imita en cierta medida al razonamiento humano en ese tipo de problemas, pero ¿está razonando la máquina como lo hacen las personas?
Para algunos expertos una de las cosas que nos distinguen (de momento) de las máquinas en este tipo de tareas es que podemos descubrir "una regla o pauta a partir de datos o experiencia limitados y de aplicar esta regla o pauta a situaciones nuevas y desconocidas".
Así lo afirmaban Melanie Mitchell —del Santa Fe Institute— y sus colegas en un estudio sobre las capacidades de "razonamiento" de los modelos de IA en noviembre de 2023. Por entonces aún quedaba casi un año para que aparecieran o1 y otros modelos de "razonamiento" rivales, pero el dato sigue siendo válido, porque los modelos de IA siguen necesitando ser entrenando con vastas cantidades de información.
Pero Mitchell analizaba el espectacular rendimiento de o3 en las pruebas ARC un año más tarde, y se sorprendía de lo bien que se había comportado. También le llamó la atención la gran cantidad de recursos de computación que requería esa capacidad de "razonamiento", y se preguntaba si realmente las máquinas estaban usando el tipo de abstracción que realmente se necesitaban para esos tests.
Hay estudios que precisamente ponen en duda que la IA esté "razonando". Uno de octubre de 2024 firmado por cuatro investigadores del Instituto de Tecnología de Israel y la Northeastern University se preguntaba si los LLMs (Large Language Models, grandes modelos de lenguaje) resuelven estas tareas de razonamiento aprendiendo algoritmos robustos y generalizables, o lo hacen memorizando los datos con los que han sido entrenados. ¿Utilizan la heurística y la experiencia, o "piensan"?
La conclusión a la que llegaron tras sus pruebas es que al parecer hay una mezcla de ambas cosas: implementan un conjunto de heurísticas —una combinación de reglas memorizadas— para llevar a cabo su "razonamiento" aritmético. No "razonan", o al menos no lo hacen como lo hacemos los seres humanos. Sobre todo, critican los expertos, aplican la heurística y una serie de datos memorizados para resolver el problema. Su capacidad de extrapolarlos y de adaptarse a nuevos problemas es limitada. Son alumnos aplicados, pero no son "geniales".

Para otros expertos, como Shannon Vallor, de la Universidad de Edimburgo, lo que hace la IA es, una vez más, imitar el comportamiento humano. Lo hacen los chatbots tradicionales como ChatGPT al generar texto, y lo hacen también estos modelos de "razonamiento" al imitar rl proceso de razonamiento humano, descomponiendo el problema y tratando de resolverlo por etapas.
Algunos investigadores hablan de una inteligencia irregular, porque como explicaba Andrej Karpathy —exOpenAI—, los modelos más avanzados pueden resolver problemas realmente complejos, pero también se pueden atascar con otros problemas bastante simplones, como demuestran las pruebas ARC que para los seres humanos son muy sencillas.
Hasta que dejen de atascarse, por supuesto. Eso es lo que persiguen todas las empresas de IA con modelos cada vez más avanzados y versátiles. Menos irregulares. Y cuando lleguen (si llegan) quizás no tenga demasiada importancia si "razonan" o no. Y tampoco que entrecomillemos esa palabra.
Imagen | Todd Martin
Ver 12 comentarios
12 comentarios
bernardmartin
Lo interesante es que de entrada te nombran a DeepSeek, para ejemplificar como no, los errores.
Hasta hace no mucho era inminente el arribo de la "singularidad", corran todos, sus empleos ya fueron, contraten el plan de 100 euros mientras tengan tiempo, el que no tenga ya su suscripción está obsoleto.
Ah pero aparecen los chinos mostrando que con dos mangos y aprovechando tecnología se puede generar una "IA" mejor... y por supuesto lo siguiente es señalar que en realidad todo está muy verde... todo, todo, por ejemplo DeepSeek .
stranno
El gran problema que le sigo viendo a la IA es la entropía intrínseca al sistema y la aleatoriedad del desarrollo creativo o lógico. Sencillamente no mantiene un patrón constante y al final sale cualquier cosa, ya sea en formato gráfico, sonoro o lógico. Que hagan un vídeo y no sean capaces de que un frame mantenga la relación con el siguiente, que metas un texto a ElevenLabs y acabe hablando en francés de forma random o que pidas una respuesta, te la de equivocada, se lo digas y te pida perdón, para volver a darte otra equivocada.
En fin, todo así y todo exactamente igual que hace 4-5 años.
¿Que se solucionará? Seguro, pero no estamos ni remotamente cerca de ello. Que es lo que nos quieren vender.
Sulfuro
No cabe duda que las IAs llegaron para revolucionar así como la PC personal lo hizo hace años, pero primero tenemos que entender nuestra "Inteligencia" para poder imitarla con éxito. A pesar de todos los avances, no sabemos cómo funciona completamente nuestro cerebro, ni tenemos la más remota idea de qué es la consciencia y de dónde se origina.
Usuario desactivado
en deepseek note que su razonamiento era hacer un prompt de mi prompt.
rabiesan
Jejeje. No lo entiendes pero te encantaría entenderlo, ¿eh?
Es muchísimo más fácil de lo que parece.
sci.fi.addict
La tecnología aún está en pañales pero avanza a pasos agigantados.
No se lo que llegará antes si la IA de nivel 3 o la computación cuántica asequible pero, si los partidarios de la 3°guerra mundial no nos j*de el progreso, me imagino unos cambios brutales los próximos 10 años.
aerondight420
Decir que un LLM razona es una cuestión puramente de marketing.
fomlimalma
Deepseek aparte de disque razonar también roba tecnología de otras IA