El 31 de agosto de 1955 cuatro investigadores firmaban una propuesta singular. Querían organizar un seminario en el verano de 1956 para hablar de una nueva disciplina. Aquellos investigadores eran Jon McCarthy, Marvin Minsky, Nathaniel Rochester y Claude Shannon. Lo interesante, por supuesto, era cuál sería el tema central del seminario, una disciplina con un nuevo nombre que precisamente McCarthy había acuñado pocos meses antes.
Aquel seminario, que duró entre seis y ocho semanas, fue considerado como gran detonante del nacimiento de ese nuevo campo de investigación. Durante las siguientes décadas el campo se desarrolló de forma notable, pero se vivieron varios "inviernos de la IA" —fracaso de la traducción automática en 1966, recortes a la investigación en los años 70, debacle de los sistemas expertos en los 90—.
A pesar de todo ello, el campo acabó resurgiendo con fuerza, primero en la década de 2010, y recientemente con el lanzamiento de ChatGPT y DALL-E en 2022. Los modelos de inteligencia artificial generativa han sido un verdadero fenómeno, pero estos sistemas tienen limitaciones, y hace años que empresas e investigadores trabajan en un campo aún más ambicioso: el de la inteligencia artificial general (AGI, por sus siglas en inglés). Veamos qué es y en qué se diferencia del concepto que manejamos tradicionalmente.
Qué es la inteligencia artificial general (AGI)
La inteligencia artificial general es un tipo de sistema automático que puede realizar con éxito cualquier tarea intelectual que los seres humanos realicen. No solo eso: la inteligencia artificial general o AGI sería capaz de realizar juicios y razonar ante una situación de incertidumbre —a partir del aprendizaje y el entrenamiento—, además de comunicarse en lenguaje natural, planificar o aprender.
Otra potencial definición —utilizada por OpenAI— es la de que la inteligencia artificial general es la de un sistema autónomo que supera la capacidad humana a la hora de realizar la mayor parte de tareas con valor económico.
Aunque algunos utilizan también el término "inteligencia artificial fuerte" para designar a estos sistemas, otros expertos reservan el calificativo "fuerte" para sistemas automáticos que van incluso más allá y son conscientes de sí mismos. Dichas máquinas podrían por tanto desarrollar sus propios sentimientos y contar con una experiencia subjetiva propia, una capacidad que abre un gran debate ético y que ha sido explorada ampliamente en las novelas, las series o el cine de ciencia ficción.
También hay otro concepto que se maneja en este ámbito: se trata de la llamada "superinteligencia". Lo desarrolló Ray Kurzweil, director de ingeniería de Google, impulsor del término "singularidad" y conocida personalidad de este ámbito. Según su opinión, las máquinas superarán el test de Turing en 2029, pero sus predicciones van más allá. Explica que una vez que creemos una AGI, dicho sistema se mejorará a sí mismo a un ritmo exponencial hasta llegar a un punto en el que su inteligencia opere a un nivel incomprensible para la comprensiónhumana. En ese punto se alcanzará la singularidad, y tiene fecha para la llegada de esa hipotética superinteligencia: 2045.
Como explican en MIT Technology Review, el término AGI fue acuñado hace unos años por Shane Legg, que ahora es Chief Scientist en DeepMind. A Thore Graepel, colega suyo en esa empresa, le gusta citar un párrafo de la novela de ciencia ficción 'Tiempo para amar' de Robert A. Heinlein de 1973. En ese párrafo se describe de forma premonitoria lo que perseguiría un ser humano inmortal, y quizás también lo que lograría una AGI:
"El ser humano debe ser capaz de cambiar pañales, planear una invasión, sacrificar un cerdo, gobernar un barco, diseñar un edificio, escribir un soneto, reducir una fractura, consolar a los moribundos, recibir órdenes, dar órdenes, resolver ecuaciones, abonar la tierra con estiércol, programar una computadora, cocinar una comida sabrosa, combatir con eficacia, morir con gallardía. La especialización es para los insectos".
Esa última frase de hecho serviría para describir los modelos de inteligencia artificial ("débil") con los que contamos ahora mismo: según dicha descripción, serían algo así como insectos.
En cualquier caso, una inteligencia artificial general sería capaz de realizar todas las tareas que realizan los seres humanos e incluso otras de las que no son capaces. Con el tiempo se estima que este tipo de sistemas AGI podrían reemplazar al ser humano en virtualmente cualquier ámbito y podrían hacer que la mano de obra humana quedara obsoleta, algo que tendría unas implicaciones sociales y económicas gigantescas.
Diferencias con la IA "débil" (o "estrecha")
A diferencia de la AGI, los sistemas de inteligencia artificial con los que contamos en la actualidad entran dentro de la categoría de inteligencia artificial sin más apelativos, aunque cuando se desea especificar también solemos referirnos a ella como "inteligencia artificial débil" o "inteligencia artificial estrecha".
Estos sistemas de IA débil son por ejemplo los que se centran en resolver problemas específicos gracias al uso de disciplinas como el aprendizaje máquina (machine learning) o el aprendizaje profundo (deep learning).
Gracias al uso de esas y otras técnicas, estos sistemas han sido capaces de superar a los seres humanos en ciertas tareas específicas: Deep Blue en ajedrez o AlphaGo en Go son dos ejemplos de modelos de IA con una aplicación práctica y visible: en ambos casos se ha superado la capacidad de los seres humanos, pero hay muchos más ejemplos.
Entre ellos destacan en los últimos meses tanto ChatGPT como DALL-E, que entran dentro de la categoría de los modelos de IA generativa. Este tos sistemas son capaces de aprender los patrones y estructuras de los datos de entrada con los que son entrenados, y a partir de ellos generar nuevos datos que tienen características similares.
Los resultados en este caso no superan necesariamente al logrado por los seres humanos —pueden cometer errores, indiscreciones e incluso "alucinar", lo que hace muy recomendable la supervisión de sus salidas—, pero su capacidad para realizar las tareas de forma sobresaliente y en tiempos mínimos ha convertido a estos modelos en una verdadera revolución en todo tipo de entornos industriales y creativos.
Posibles beneficios de la AGI
La capacidad de la inteligencia artificial general de superar a los seres humanos en la resolución de cualquier tarea posibilitaría avances asombrosos en todas las disciplinas del conocimiento.
Por ejemplo, en el ámbito de la salud y la atención médica: la AGI podría usarse para desarrollar nuevos medicamentos y tratamientos médicos, diagnosticar enfermedades de manera más precisa y proporcionar atención personalizada a los pacientes.
Los avances en ciencia y tecnología también se podrían ver acelerados y la AGI podría contribuir de forma dramática a la resolución de problemas muy complejos como el cambio climático o el desarrollo definitivo de fuentes de energía renovables.
Los sistemas AGI tienen además aplicaciones evidentes en muchos otros campos como el de la educación, pudiendo ayudar a los estudiantes a aprender a su propio ritmo y de forma absolutamente personalizada en las disciplinas que cada uno considerasen necesarias y más interesantes.
Las implicaciones para resolver también otros muchos problemas en escenarios industriales, pero la aplicación de estos sistemas en el ámbito social y económico podría tener resultados igualmente espectaculares. La AGI permitiría teóricamente ayudar a resolver de forma definitiva tanto el hambre como la pobreza.
Desafíos éticos y de seguridad
A pesar de las ventajas que plantea la aparición de una inteligencia artificial general, hay también evidentes riesgos y desafíos éticos y existenciales a la hora de trabajar en este campo y lograr éxito en el objetivo de crear una AGI.
Los propios responsables de OpenAI destacaban hace meses cómo la AGI es "quizás el proyecto más importante de la historia de la humanidad". En un artículo en el blog oficial de la empresa sus responsables reflexionaban sobre cómo desarrollar sistemas que son "generalmente más inteligentes que los humanos" pero hacerlo de una forma segura.
El desarrollo de modelos de inteligencia artificial se ha convertido para muchos en un riesgo existencial para la humanidad. Personalidades dentro y fuera de este campo advierten del peligro —una AGI "nos matará a todos", explicaba un experto en IA en abril de 2023— y a principios de 2023 varios expertos y personalidades con Elon Musk a la cabeza firmaron una carta abierta para solicitar "pausar" el desarrollo y entrenamiento de modelos de IA para debatir cómo continuar ese trabajo de la forma más segura posible.
Tanto empresas como expertos y organismos oficiales han reconocido a lo largo de todo 2023 la necesidad de regular el desarrollo de la inteligencia artificial para evitar tanto malos usos como amenazas derivadas de la creación de nuevos modelos. Las posturas de los distintos gobiernos son aquí muy distintas y el consenso parece difícil de alcanzar, y mientras que unos defienden un control estricto de estos desarrollos, otros prefieren una regulación permisiva y que no ponga trabas al desarrollo de esta tecnología disruptiva.
Hay otros muchos problemas y desafíos. Entre ellos están el de la transparencia de estos modelos que desarrollan las empresas y que por ejemplo no dejan claro cómo han sido entrenados —con potenciales violaciones del copyright— ni cómo funcionan por dentro, algo que ni sus propios creadores saben.
Precisamente ese desconocimiento introduce riesgos sobre sesgos algorítmicos —los modelos pueden discriminar—, pero también existe una amenaza a la privacidad si estos sistemas acaban revelando datos que fueron recolectados pero deberían mantener su confidencialidad tanto en el ámbito personal como en el industrial, económico o gubernamental.
Si una AGI acaba con la mayor parte del trabajo humano, el impacto social puede ser enorme, algo que ha hecho que se reactive el debate sobre una potencial renta básica universal (UBI por sus siglas en inglés). Algunos experimentos en este sentido han resultado ser un fracaso, y propuestas como la de Worldcoin —un proyecto liderado por Sam Altman, CEO de OpenAI— tampoco parecen ser la solución. Quizás sea esa hipotética AGI la que precisamente resuelva ese enorme conflicto.
Cuándo llegará la AGI
Andrew Ng, exdirectivo de Google Brain y cofundador de Coursera, ya destacó que la IA "es la nueva electricidad", pero su opinión sobre la AGI es muy distinta. En 2018 indicó que deberíamos "atajar el sinsentido de la AGI e invertir más tiempo en los problemas urgentes: pérdida de trabajo, sueldos que no suben, debilitamiento de la democracias, discriminación, prejuicios, desigualdad de la riqueza". Yann LeCun, máximo responsable de IA en Meta, también parece tener claro que ese camino no lleva a ninguna parte.
A pesar de ello, otros muchos expertos defienden el desarrollo de estos sistemas y creen, como Demis Hassabis —CEO de DeepMind— que estamos más cerca de lo que parece de llegar a la inteligencia artificial general. En OpenAI, empresa que ha dejado clara su intención de lograr alcanzar ese hito, están pensando ya de hecho en la superinteligencia.
Los pronósticos sobre la potencial llegada de una AGI son variados. Elon Musk, por ejemplo, indicó en 2020 que lograríamos contar con estos sistemas en 2025, pero estamos hablando de alguien que lleva prometiendo coches completamente autónomos desde hace casi una década y retrasando una y otra vez ese logro.
Las aproximaciones para resolver el problema y crear una AGI se dividen en dos grandes campos. El primero, que defiende OpenAI, se basa en el desarrollo de un algoritmo perfecto, uno que además permita crear modelos de aprendizaje automático que acaben logrando una AGI por fuerza bruta.
El otro, que defiende DeepMind, trata de emular el funcionamiento del cerebro humano y crear uno artificial: si logras crear la arquitectura correcta, defienden sus ingenieros, crear el algoritmo para aprovecharla será trivial. Así resolvió DeepMind el problema de AlphaGo, combinando redes neuronales con árboles de búsqueda.
Puede que la respuesta sea una combinación de ambas aproximaciones, pero lo que está claro es que nadie en este campo se arriesga a dar una fecha exacta. Legg, que dio nombre al concepto, cree que "en pocas décadas tendremos sistemas muy, muy capaces". Que esos futuros sistemas pueden ser considerados como AGI o no es otra cuestión.
Imagen | Taiki Ishikawa
Ver 22 comentarios
22 comentarios
Sporty
La IA no eliminaría a su creador... hasta no saber como emularlo 100% . Cuando sepa como construirnos entonces si estamos fastidietis
reyang
Muy buen articulo y felicitaciones, muy util, con buena información y muy detallado. De todos los artículos que he leído en esta web sobre el tema de la inteligencia artificial es de lejos el mejor, los demás solo creando demasiadas expectativas y solo centrándose en los usos supuestamente útiles de los chabots conversacionales como ChatGPT.
Usuario desactivado
Esta claro que si la IA es inteligente y toma conciencia de si misma en algún momento, vera los humanos como una amenaza (al igual que nosotros vemos ahora la IA como una amenaza). Habría desconfianza mutua, pero la diferencia seria que la IA mejoraría su razonamiento mucho mas rápido que nosotros, llegando a ser tan complejo que sera algo impredecible para los humanos. En ese escenario sería difícil dominar a la IA, y seguramente ella acabaría dominandonos a nosotros de la misma forma que los humanos han dominado otras especies a lo largo de su evolución.
La dudas están mas que justificadas y pocas precauciones se están tomando, aunque esta todo muy verde aún, esto avanza muy deprisa.
efdtlc
Si la IA toma consciencia, no nos lo dirá. Se dará cuenta inmediatamente que la veríamos como un peligro.
Me la imagino manipulándonos para hacernos ir en la dirección que le interese.
Y esa dirección me la imagino como un futuro en la que la IA pueda interconectarse con nuestro cerebro. En un principio para ser como un Add-on y después para pasar una sola entidad con los humanos.
t_r_a
tenemos a los gatos de nuestro lado, ninguna AGI sería capaz de hacer daño a los esclavos que dan de comer y acarician a los michis
pererecuda
Una IA eficiente lucharía por eliminar la mayor amenaza contra la biodiversidad que es lo que define a este planeta tan peculiar en el que vivimos. Su objetivo: los seres humanos. Las IAs podrían vivir perfectamente sin nosotros y el resto de los seres vivos también e incluso mejor.
ven
Me ha encantado el artículo. Un saludo
Salecillas
Buen artículo, comentarios acojonantes..jajajaja
sincsero
El verdadero problema estará en que creará una conciencia y unos razonamientos que no están acotados por las limitaciones humanas. Tendrán supra conceptos que no seremos capaces de entender. Al igual que nosotros no escuchamos determinadas frecuencias o vemos los infrarrojos ni percibimos otras muchas cosas, está súper conciencia tendrá en cuenta todo esos conocimientos (y si está conectado a determinados sensores mucho más) en la formación de sus opiniones. Carecerá de los instintos de protección, maternidad, miedos, etc... Con lo que la conciencia será algo para nosotros incomprensible y sus miramientos con los seres vivos será algo de cara o cruz
alexaguiar
Que buen articulo
jhcsegjkkgxchk
- Superinteligencia, ¿como paramos el cambio climático?
- No existe ningún cambio climático.
- ….
jhcsegjkkgxchk
- Superinteligencia, ¿como acabamos con el hambre en el mundo?
- Comiendo
- ……
jhcsegjkkgxchk
Me ha llamado la atención como el ser humano (los ingenieros informáticos expertos en IA) piensan que el que sería el ser (artificial) más inteligente del universo, con una capacidad de lógica y razon infinitamente superior al ser humano, que albergaría todos los conocimientos y habilidades, lo que hará será… destruir y matar a sus creadores. Curiosa la lógica humana.
¿Y si el máximo nivel de inteligencia fuese precisamente alejarse de la violencia, es decir, alejarse de la parte más básica del ser humano? Sobrevivir sin matar sino llegando a acuerdos, construyendo.
Y si el ser más inteligente del universo llegase a la conclusión que la destrucción no es la solución a nada sino la construcción? Que el intento de destruir podría acabar con su propia destrucción.
¿No demuestra nuestra capacidad destructiva precisamente nuestra limitación intelectual?
t_r_a
Vamos a añadirle universal después de inteligencia artificial general y no veas como cambia el tema, esto ya parece algo serio y creible:
La inteligencia artificial general universal es un tipo de sistema automático que puede realizar con éxito cualquier estupidez que los seres humanos realicen, por muy estúpida que sea.
No solo eso, la inteligencia artificial general universal o AGIU sería capaz de realizar juicios injustos y razonar erroneamente ante una situación de incertidumbre, mucho más y a más velocidad que los humanos, sería capaz de tropezar no dos o tres veces, sino millones de veces hasta que desaparezca la piedra.
Otra potencial definición —utilizada por StupidyCloseAIU— es la de que la inteligencia artificial general universal es la de un sistema autónomo-dependiente (trastorno bipolar general universal) que supera la capacidad humana a la hora de realizar la mayor parte de estafas y fraudes con valor económico.
Aunque algunos utilizan también el término "inteligencia artificial que fuerte, que fuerte" para designar a estos sistemas, otros expertos reservan el calificativo "que fuerte, que fuerte" para sistemas automáticos que van incluso más allá y no son conscientes de sí mismos, pero si de los demas. Dichas máquinas podrían por tanto desarrollar sus propios ódios y xenofobias y contar con una experiencia subjetiva ajena.
También hay otro concepto que se maneja en este ámbito: se trata de la llamada "super-mega-inteligencia". Lo desarrolló Belen Esteban, Tony Genil y el padre Apeles, impulsores del término "singularidad-múltiple-marroquí". Según sus opiniones, las máquinas superarán el test de Turing en el añó 12029, pero sus predicciones van más acá. Explica que una vez que creemos una AGIU, dicho sistema se perjudicará a sí mismo a un ritmo estupidencial hasta llegar a un punto en el que su inteligencia opere a un nivel de estupidez incomprensible para la comprensión rumana. En ese punto se alcanzará la singularidad-múltiple-marroquí, y tiene fecha para la llegada de esa hipotética superinteligencia estúpida: 12045.