El 31 de agosto de 1955 cuatro investigadores firmaban una propuesta singular. Querían organizar un seminario en el verano de 1956 para hablar de una nueva disciplina. Aquellos investigadores eran Jon McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon. Lo interesante, por supuesto, era cuál sería el tema central del seminario, una disciplina con un nuevo nombre que precisamente McCarthy había acuñado pocos meses antes.
Aquel seminario, que duró entre seis y ocho semanas, fue considerado como gran detonante del nacimiento de ese nuevo campo de investigación. Durante las siguientes décadas el campo se desarrolló de forma notable, pero se vivieron varios "inviernos de la IA" —fracaso de la traducción automática en 1966, recortes a la investigación en los años 70, debacle de los sistemas expertos en los 90—.
A pesar de todo ello, el campo acabó resurgiendo con fuerza, primero en la década de 2010, y recientemente con el lanzamiento de ChatGPT y DALL-E en 2022. Los modelos de inteligencia artificial generativa han sido un verdadero fenómeno, pero estos sistemas tienen limitaciones, y hace años que empresas e investigadores trabajan en un campo aún más ambicioso: el de la inteligencia artificial general (AGI, por sus siglas en inglés). Veamos qué es y en qué se diferencia del concepto que manejamos tradicionalmente.
Qué es la inteligencia artificial general (AGI)
La inteligencia artificial general es un tipo de sistema automático que puede realizar con éxito cualquier tarea intelectual que los seres humanos realicen. No solo eso: la inteligencia artificial general o AGI sería capaz de realizar juicios y razonar ante una situación de incertidumbre —a partir del aprendizaje y el entrenamiento—, además de comunicarse en lenguaje natural, planificar o aprender.
Otra potencial definición —utilizada por OpenAI— es la de que la inteligencia artificial general es la de un sistema autónomo que supera la capacidad humana a la hora de realizar la mayor parte de tareas con valor económico.
Aunque algunos utilizan también el término "inteligencia artificial fuerte" para designar a estos sistemas, otros expertos reservan el calificativo "fuerte" para sistemas automáticos que van incluso más allá y son conscientes de sí mismos. Dichas máquinas podrían por tanto desarrollar sus propios sentimientos y contar con una experiencia subjetiva propia, una capacidad que abre un gran debate ético y que ha sido explorada ampliamente en las novelas, las series o el cine de ciencia ficción.
También hay otro concepto que se maneja en este ámbito: se trata de la llamada "superinteligencia". Lo desarrolló Ray Kurzweil, director de ingeniería de Google, impulsor del término "singularidad" y conocida personalidad de este ámbito. Según su opinión, las máquinas superarán el test de Turing en 2029, pero sus predicciones van más allá. Explica que una vez que creemos una AGI, dicho sistema se mejorará a sí mismo a un ritmo exponencial hasta llegar a un punto en el que su inteligencia opere a un nivel incomprensible para la comprensiónhumana. En ese punto se alcanzará la singularidad, y tiene fecha para la llegada de esa hipotética superinteligencia: 2045.
Como explican en MIT Technology Review, el término AGI fue acuñado hace unos años por Shane Legg, que ahora es Chief Scientist en DeepMind. A Thore Graepel, colega suyo en esa empresa, le gusta citar un párrafo de la novela de ciencia ficción 'Tiempo para amar' de Robert A. Heinlein de 1973. En ese párrafo se describe de forma premonitoria lo que perseguiría un ser humano inmortal, y quizás también lo que lograría una AGI:
"El ser humano debe ser capaz de cambiar pañales, planear una invasión, sacrificar un cerdo, gobernar un barco, diseñar un edificio, escribir un soneto, reducir una fractura, consolar a los moribundos, recibir órdenes, dar órdenes, resolver ecuaciones, abonar la tierra con estiércol, programar una computadora, cocinar una comida sabrosa, combatir con eficacia, morir con gallardía. La especialización es para los insectos".
Esa última frase de hecho serviría para describir los modelos de inteligencia artificial ("débil") con los que contamos ahora mismo: según dicha descripción, serían algo así como insectos.
En cualquier caso, una inteligencia artificial general sería capaz de realizar todas las tareas que realizan los seres humanos e incluso otras de las que no son capaces. Con el tiempo se estima que este tipo de sistemas AGI podrían reemplazar al ser humano en virtualmente cualquier ámbito y podrían hacer que la mano de obra humana quedara obsoleta, algo que tendría unas implicaciones sociales y económicas gigantescas.
Diferencias con la IA "débil" (o "estrecha")
A diferencia de la AGI, los sistemas de inteligencia artificial con los que contamos en la actualidad entran dentro de la categoría de inteligencia artificial sin más apelativos, aunque cuando se desea especificar también solemos referirnos a ella como "inteligencia artificial débil" o "inteligencia artificial estrecha".
Estos sistemas de IA débil son por ejemplo los que se centran en resolver problemas específicos gracias al uso de disciplinas como el aprendizaje máquina (machine learning) o el aprendizaje profundo (deep learning).
Gracias al uso de esas y otras técnicas, estos sistemas han sido capaces de superar a los seres humanos en ciertas tareas específicas: Deep Blue en ajedrez o AlphaGo en Go son dos ejemplos de modelos de IA con una aplicación práctica y visible: en ambos casos se ha superado la capacidad de los seres humanos, pero hay muchos más ejemplos.
Entre ellos destacan en los últimos meses tanto ChatGPT como DALL-E, que entran dentro de la categoría de los modelos de IA generativa. Este tos sistemas son capaces de aprender los patrones y estructuras de los datos de entrada con los que son entrenados, y a partir de ellos generar nuevos datos que tienen características similares.
Los resultados en este caso no superan necesariamente al logrado por los seres humanos —pueden cometer errores, indiscreciones e incluso "alucinar", lo que hace muy recomendable la supervisión de sus salidas—, pero su capacidad para realizar las tareas de forma sobresaliente y en tiempos mínimos ha convertido a estos modelos en una verdadera revolución en todo tipo de entornos industriales y creativos.
Posibles beneficios de la AGI
La capacidad de la inteligencia artificial general de superar a los seres humanos en la resolución de cualquier tarea posibilitaría avances asombrosos en todas las disciplinas del conocimiento.
Por ejemplo, en el ámbito de la salud y la atención médica: la AGI podría usarse para desarrollar nuevos medicamentos y tratamientos médicos, diagnosticar enfermedades de manera más precisa y proporcionar atención personalizada a los pacientes.
Los avances en ciencia y tecnología también se podrían ver acelerados y la AGI podría contribuir de forma dramática a la resolución de problemas muy complejos como el cambio climático o el desarrollo definitivo de fuentes de energía renovables.
Los sistemas AGI tienen además aplicaciones evidentes en muchos otros campos como el de la educación, pudiendo ayudar a los estudiantes a aprender a su propio ritmo y de forma absolutamente personalizada en las disciplinas que cada uno considerasen necesarias y más interesantes.
Las implicaciones para resolver también otros muchos problemas en escenarios industriales, pero la aplicación de estos sistemas en el ámbito social y económico podría tener resultados igualmente espectaculares. La AGI permitiría teóricamente ayudar a resolver de forma definitiva tanto el hambre como la pobreza.
Desafíos éticos y de seguridad
A pesar de las ventajas que plantea la aparición de una inteligencia artificial general, hay también evidentes riesgos y desafíos éticos y existenciales a la hora de trabajar en este campo y lograr éxito en el objetivo de crear una AGI.
Los propios responsables de OpenAI destacaban hace meses cómo la AGI es "quizás el proyecto más importante de la historia de la humanidad". En un artículo en el blog oficial de la empresa sus responsables reflexionaban sobre cómo desarrollar sistemas que son "generalmente más inteligentes que los humanos" pero hacerlo de una forma segura.
El desarrollo de modelos de inteligencia artificial se ha convertido para muchos en un riesgo existencial para la humanidad. Personalidades dentro y fuera de este campo advierten del peligro —una AGI "nos matará a todos", explicaba un experto en IA en abril de 2023— y a principios de 2023 varios expertos y personalidades con Elon Musk a la cabeza firmaron una carta abierta para solicitar "pausar" el desarrollo y entrenamiento de modelos de IA para debatir cómo continuar ese trabajo de la forma más segura posible.
Tanto empresas como expertos y organismos oficiales han reconocido a lo largo de todo 2023 la necesidad de regular el desarrollo de la inteligencia artificial para evitar tanto malos usos como amenazas derivadas de la creación de nuevos modelos. Las posturas de los distintos gobiernos son aquí muy distintas y el consenso parece difícil de alcanzar, y mientras que unos defienden un control estricto de estos desarrollos, otros prefieren una regulación permisiva y que no ponga trabas al desarrollo de esta tecnología disruptiva.
Hay otros muchos problemas y desafíos. Entre ellos están el de la transparencia de estos modelos que desarrollan las empresas y que por ejemplo no dejan claro cómo han sido entrenados —con potenciales violaciones del copyright— ni cómo funcionan por dentro, algo que ni sus propios creadores saben.
Precisamente ese desconocimiento introduce riesgos sobre sesgos algorítmicos —los modelos pueden discriminar—, pero también existe una amenaza a la privacidad si estos sistemas acaban revelando datos que fueron recolectados pero deberían mantener su confidencialidad tanto en el ámbito personal como en el industrial, económico o gubernamental.
Si una AGI acaba con la mayor parte del trabajo humano, el impacto social puede ser enorme, algo que ha hecho que se reactive el debate sobre una potencial renta básica universal (UBI por sus siglas en inglés). Algunos experimentos en este sentido han resultado ser un fracaso, y propuestas como la de Worldcoin —un proyecto liderado por Sam Altman, CEO de OpenAI— tampoco parecen ser la solución. Quizás sea esa hipotética AGI la que precisamente resuelva ese enorme conflicto.
Cuándo llegará la AGI
Andrew Ng, exdirectivo de Google Brain y cofundador de Coursera, ya destacó que la IA "es la nueva electricidad", pero su opinión sobre la AGI es muy distinta. En 2018 indicó que deberíamos "atajar el sinsentido de la AGI e invertir más tiempo en los problemas urgentes: pérdida de trabajo, sueldos que no suben, debilitamiento de la democracias, discriminación, prejuicios, desigualdad de la riqueza". Yann LeCun, máximo responsable de IA en Meta, también parece tener claro que ese camino no lleva a ninguna parte.
A pesar de ello, otros muchos expertos defienden el desarrollo de estos sistemas y creen, como Demis Hassabis —CEO de DeepMind— que estamos más cerca de lo que parece de llegar a la inteligencia artificial general. En OpenAI, empresa que ha dejado clara su intención de lograr alcanzar ese hito, están pensando ya de hecho en la superinteligencia.
Los pronósticos sobre la potencial llegada de una AGI son variados. Elon Musk, por ejemplo, indicó en 2020 que lograríamos contar con estos sistemas en 2025, pero estamos hablando de alguien que lleva prometiendo coches completamente autónomos desde hace casi una década y retrasando una y otra vez ese logro.
Las aproximaciones para resolver el problema y crear una AGI se dividen en dos grandes campos. El primero, que defiende OpenAI, se basa en el desarrollo de un algoritmo perfecto, uno que además permita crear modelos de aprendizaje automático que acaben logrando una AGI por fuerza bruta.
El otro, que defiende DeepMind, trata de emular el funcionamiento del cerebro humano y crear uno artificial: si logras crear la arquitectura correcta, defienden sus ingenieros, crear el algoritmo para aprovecharla será trivial. Así resolvió DeepMind el problema de AlphaGo, combinando redes neuronales con árboles de búsqueda.
Puede que la respuesta sea una combinación de ambas aproximaciones, pero lo que está claro es que nadie en este campo se arriesga a dar una fecha exacta. Legg, que dio nombre al concepto, cree que "en pocas décadas tendremos sistemas muy, muy capaces". Que esos futuros sistemas pueden ser considerados como AGI o no es otra cuestión.
Imagen | Taiki Ishikawa
Ver 19 comentarios