1. GPT-4 es un artefacto fabuloso, muy sorprendente. Yo, que llevo siguiendo los grandes modelos del lenguaje casi desde el principio, no pensé que se llegaría a tal calidad en las respuestas. Creo que todo el mundo se queda perplejo al comprobar como un sistema de semántica distribuida tenga tan buen desempeño. Sin embargo, a pesar de lo que pueda parecer, todavía estamos muy lejos de una inteligencia artificial general. Si abrimos el capó y vemos su funcionamiento interno, es un sistema estadístico de generación de texto en el que no hay pensamiento ni razonamiento ni comprensión puramente dichos. GPT-4 es muy tonto, y su buen desempeño es solo la apariencia externa. Aunque la analogía no sea del todo completa, GPT-4 no dista tato de la ELIZA de Weizenbaum, programa que, por los años sesenta del siglo pasado, también causó un hype impresionante.
2. Pero, a pesar de estar lejos del logro de una inteligencia artificial general, GPT-4 y sus homólogos van a dar lugar a una serie de herramientas magníficas que, en términos generales, nos van a hacer la vida mucho mejor, que es lo que ha hecho la tecnología, reitero que, lato sensu, desde el comienzo de los tiempos. Los avances tecnológicos son uno de los factores más determinantes del bienestar del que disfruta la humanidad occidental en el siglo XXI. Cualquier persona de clase media de un país desarrollado vive hoy mejor que un rey del medievo. Y esto creo que justifica el optimismo. Apuesto (si bien reconozco que la tarea de futurólogo es muy compleja en estos tiempos) a que los grandes modelos de lenguaje van a mejorar más que empeorar el mundo. No seamos tecnófobos a estas alturas.
3. Las tecnologías disruptivas siempre han traído una cierta incertidumbre. Nadie sabía lo que iba a traer la imprenta, la máquina de vapor, la electricidad o internet, y muchos ya se ponían apocalípticos en esos tiempos. No hagamos ahora lo mismo. Eso, por supuesto, no implica que bajemos las defensas. Hay que vigilar muy de cerca todo lo que hacen las grandes empresas tecnológicas, muy atentos a todas las feas jugadas que, sin duda, van a intentar. Y hay que legislar. Y aunque ya sabemos que, desgraciadamente, las legislaciones van siempre muy por detrás de la tecnología, hay que hacerlo lo mejor posible. Vivimos en un momento apasionante para los juristas. Esperemos que estén a la altura.
4. La celebérrima carta del Future of Life Insitute que pide una moratoria de seis meses en el desarrollo de sistemas superiores a GT-4 es un brindis al sol. Nadie se cree que la carrera por la supremacía en IA vaya a pararse ni siquiera un minuto. Además, ¿seis meses? ¿Seis meses será tiempo suficiente para arreglarlo todo? ¿Y por qué no un año o diez? Además, hay muchas otras tecnologías (si no casi todas) de las que desconocemos su potencial dañino futuro. Tenemos a nuestros hijos completamente adictos a las redes sociales ¿Por qué no una moratoria ahí? ¿Una moratoria a TikTok, Spotify, Roblox, HBO…?
5. Me hace gracia que en ella se hable de que podemos perder el control de la civilización. Es una idea que se repite mucho cuando la gente fabula con la singularidad tecnológica, pero si lo pensamos bien: ¿es que acaso ya tenemos el control de la civilización? ¿Quién tiene ese control? Es cierto que hay esferas con mucho más poder que otras, pero decir que hay algo o alguien que controla el curso de los acontecimientos es de una ingenuidad pasmosa. El poder en el mundo, afortunadamente, está bastante descentralizado. Precisamente, los últimos acontecimientos mundiales: Trump, Brexit, Covid, guerra de Ucrania… han sido claros cisnes negros, sucesos completamente impredecibles ¿Alguien tenía el control sobre todos estos hechos? Entonces, ¿quién perderá el control cuando lo tome la IA? ¿Elon Musk? Curiosamente (o no tanto), Musk firma la carta a la vez que pisa el acelerador en la IA de Twitter.
6. También se cae en el error de pensar que una IA, una entidad única, será la que tome el control ¿Una? ¿Cuál? ¿La de OpenAI, la de DeepMind, la de Meta quizá? ¿Las que está desarrollando China? Inteligencias artificiales hay muchas y muy variopintas. De hecho, cualquier software de tu ordenador o smartphone hace tareas que, si las viéramos eh humanos, diríamos que son inteligentes. Por tanto, cualquier de nosotros tenemos inteligencias artificiales en nuestras manos ¿Será una de ellas la que liderará la rebelión? Es curioso como la ciencia-ficción se ha instalado en los cerebros de personas que tienen que tomar importantes decisiones que nos afectan a todos. En serio, de verdad, repitamos todos: las máquinas no se van a rebelar, no va a haber ninguna guerra final contra ellas ni ningún apocalipsis de ningún tipo. Terminator o Matrix son películas de ficción, no pronósticos basados en evidencia.
7. En la carta se pide que estos sistemas sean «precisos, seguros, interpretables, transparentes, robustos, alineados, confiables y leales». Creo que precisión, seguridad, interpretabilidad, transparencia y robustez es algo que ya se pide a cualquier software y que no se consigue: yo no tengo acceso al código fuente de Windows… Pero lo que me parece más gracioso es que sean «alineados, confiables y leales», virtudes que yo le pediría más a una mascota que a un programa de software. Nick Bostrom habla en su insufrible, pero muy citado, Supertinteligencia (uno de los libros peor escritos que jamás he tenido el displacer de leer) de que es importante que construyamos inteligencias cuyos valores éticos estén alineados con los nuestros. Esto es otra chorrada más de ciencia-ficción ¿Es que alguien se va a poner a programar software psicópata y lo va a situar en posición de tomar decisiones importantes? ¿En un escaño en el Parlamento? Cuando hemos puesto a sistemas de redes neuronales a tomar decisiones y resulta que han tenido sesgos racistas, homófobos o machistas, rápidamente hemos ido a corregirlo ¿En serio que pensamos en máquinas que, al tener unos valores éticos diferentes a los nuestros, van a optar por exterminarnos? ¿En serio que si aparece una superinteligencia cósmica lo primero que va a pensar es en nuestro exterminio? ¿Siendo tan inteligente no se le va a ocurrir otra cosa? Además, ¿qué alineamiento? ¿La ética de los expertos en IA del MIT? ¿O de los monjes budistas del Tibet? ¿O de los tuaregs del Magreb? ¿Existe un acaso un alineamiento ético universal?
8. Se está cayendo todo el rato en la conocida falacia de la pendiente resbaladiza. Ésta consiste en ir encadenando sucesos sin conexión probada que, al final, nos llevarán a uno terrible. La sucesión será así: la IA avanza notablemente, la IA igualará y superará al hombre, la IA tomará el control, la IA nos exterminará. No hay conexión probada que justifique que ninguno de esos sucesos sea la causa del siguiente. Me gustaría que explicaran con claridad cuáles son los inevitables pasos que van desde diseñar a un chatbot hasta que éste se hace con el control de la civilización y nos aniquila.
9. En lo que sí estoy de acuerdo con la carta es en que sí que me parece que no debemos dejar la toma de decisiones que nos van a afectar a todos solo en las manos de los dos o tres ceos de las gigantes tecnológicas. Por muy majo que pueda parecer Sam Altman, nadie lo ha elegido democráticamente. Yo quiero que representantes políticos electos sean los que decidan el futuro. Por eso está muy bien que Open IA, a pesar de no haber hecho público su funcionamiento (los dos artículos técnicos que ha proporcionado no nos dan datos relevantes sobre su arquitectura, entrenamiento, hardware, etc.), haya hecho público el uso de ChatGPT. Todos hemos podido usarlo y ahora estamos debatiendo sobre sus usos futuros. El debate público está alcanzando cuotas importantes, y eso, queridos amigos, es la democracia. Mucho de lo que se hable impregnará la mente de políticos y gurús de la industria, y obrarán en consecuencia. Esto es muy buena notica.
10. Italia se equivoca de raíz. Es cierto que hay que revisar si estos modelos incumplen la ley de protección de datos y trabajar en esa dirección, pero no llegando a prohibir, más en este momento. Pero este es el triste papel que parece desempeñar Europa en el campo de la IA. Se ha quedado completamente atrás en la carrera y parece que solo puede hacer de policía gruñón. No está nada mal que exista un policía gruñón, es muy necesario, lo malo es que solo se sea eso.
11. No puedo entender cómo el periódico Time ha dado espacio a las locuras de Eliezer Yudkowsky. Este hombre, creyéndose Sarah Connor, dice que como la IA va a causar el fin de la humanidad, hay que bombardear centros de datos de cualquier país, incluso si esto nos lleva a una guerra nuclear. Los medios tienen la responsabilidad de establecer unos mínimos de los que es publicable y lo que no, y yo pensaba que un periódico como Time los tendría. Desde aquí animo a los medios a que no publiquen basura, a ver si la moratoria de seis meses va a tener que ser hacia el periodismo.
12. Sobre lo que sí hay que preocuparse es sobre los problemas actuales: protección de datos, copyright, sesgos discriminatorios, ciberseguridad, fake news, usos militares, etc. Es decir, hay que mantener la clásica vigilancia democrática que hay que ejercer sobre cualquier desarrollo tecnológico, igual que hacemos con los medicamentos o con el reciclado de residuos. Toda tecnología siempre ha tenido una cara B, siempre ha tenido un posible uso perverso. Lo que hay que hacer es lo de siempre: educación y legislación. Quiero que los ingenieros de OpenAI hayan sido educados con buenos valores morales y quiero un buen marco legislativo que evite los malos usos. Ahí es donde debemos estar y no luchando contra Skynet.
Imagen | Sanket Mishra/Unsplash
En Xataka | Las inteligencias artificiales creativas van a matar el arte otra vez. No tiene la más mínima importancia
Ver 14 comentarios