A cualquiera le parece normal aprender el significado de una palabra y luego aplicarlo a otros contextos del lenguaje. Lo mismo ocurre por ejemplo con los objetos: una vez reconocemos su forma, podemos reconocer ese objeto aunque esté formado por otros compuestos y materiales o tenga distinto color. Es un ya conocido ingrediente de nuestra inteligencia que los expertos llaman "generalización compositiva".
La pregunta es si las máquinas podían llegar a "pensar" de esta manera. Como señalan en la Universidad de Nueva York, a finales de los 80 dos científicos cognitivos llamados Jerry Fodor y Zenon Pylyshyn postularon que las redes neuronales artificiales son capaces de hacer esas conexiones, pero desde entonces el éxito en esa materia ha sido esquivo. O lo había sido.
Investigadores de esa institución y de la Universidad Pompeu Fabra en España llevan tiempo trabajando en este ámbito y han desarrollado una nueva técnica que precisamente apunta a esa capacidad. El estudio, publicado en Nature, revela cómo herramientas como ChatGPT pueden realizar esas generalizaciones compositivas a través del llamado "Meta-aprendizaje para la compositividad" (MLC).
Según las pruebas realizados por los investigadores, esta técnica es capaz no solo de igualar, sino incluso de superar la capacidad humana en esta importante función cognitiva. La clave de la técnica MLC no ha sido el entrenamiento, sino una práctica explícita de estas capacidades.
La técnica MLC es un procedimiento de aprendizaje para redes neuronales en las que estos sistemas se actualizan continuamente para mejorar sus habilidades en una serie de etapas o episodios.
Así, en un episodio el sistema MLC recibe una nueva palabra y se le pide que lo aplique de forma compositiva. Por ejemplo, le dan la palabra "salta" y le piden que cree nuevas combinaciones de palabras, como "salta dos veces" o "salta a la derecha dos veces". A partir de ahí se genera otro episodio con otra nueva palabra, de forma que las habilidades compositivas van incrementándose.
En las pruebas realizadas por Brenden Lake (NYU) y Marco Baroni (ICREA), estos dos investigadores realizaron una serie de pruebas con participantes humanos que recibían los mismos "episodios" que había recibido el MLC. No solo trabajaron con el significado de palabras reales, sino también con términos inventados definidos por los investigadores.
En esas pruebas MLC se comportó tan bien como los participantes humanos y en ocasiones lo hizo incluso mejor. También se comparó el rendimiento de este sistema con el de ChatGPT y GPT-4, y ambos fueron superados por el sistema desarrollado por estos investigadores. El descubrimiento de esta técnica, explica Baroni, "puede mejorar aún más las capacidades compositivas de los grandes modelos de lenguaje (LLM)".
Imagen | Maximalfocus
Ver 8 comentarios
8 comentarios
p2dzca
No magnifiquemos un pequeño lo logro que tiene poco valor.
Yann LeCun, jefe de la división de IA de Meta, es uno de los mayores expertos en IA y una de las personas más sensatas cuando habla sobre el presente y futuro de la inteligencia artificial.
Hace poco dio una conferencia en la que decía esto sobre los LLM (Large Language Models):
* Las máquinas no aprenden cómo funciona el mundo, como lo hacen los humanos y otros animales.
* La IA actual, incluidos los LLM, está muy lejos de alcanzar una inteligencia similar a la humana.
* Los LLM dominan el lenguaje, pero tienen un modelo muy limitado del mundo, no planifican y no tienen ni razonamiento si sentido común.
* La mayoría del conocimiento que tenemos los humanos y otros animales no es verbal.
* La inteligencia es previa al lenguaje. Por tanto, los LLM no nos acercan a una inteligencia similar a la humana.
daniel3241
Aunque muchos usuarios minusvaloran estos logros, hay que aplaudir como hay personas que intentan mejorar esta tecnología que tanto nos esta ayudando, poquito a poco se van mejorando los algoritmos, se van añadiendo funcionalidades nuevas y es posible que la IA de dentro de 6 ó 7 años no tenga nada que ver con los modelos de IA que manejamos ahora. Puede que no lleguemos a desarrollar una IA que iguale y ya no te digo que supere a la inteligencia humana, pero solo con que se le acerque un poco ya es un paso de gigante que nos mejorara la vida a todos.
Usuario desactivado
Lo que diferencia a este modelo de ChatGPT y similares es que se trata de un mecanismo de aprendizaje permanente. Los LLM actuales se entrenan una vez y su aprendizaje termino. ChatGPT repite falsedades y no corrige. El sistema de la universidad Pompeu Fabra corrige. No minimicemos esta importante diferencia.
t_r_a
otro bulo más sobre la IA, desde luego si algo hace bien la IA es inventar historias