La semana pasada el Future of Life Institute (FLI) publicó una carta abierta con una petición contundente: pausar el desarrollo y entrenamiento de nuevas inteligencias artificiales durante seis meses. La carta estaba firmada por personalidades como Elon Musk, y en ella se mostraba una gran preocupación por este frenético desarrollo sin pensar en las consecuencias. Ahora un experto en este ámbito va más allá y afirma que pausar ese desarrollo no es suficiente.
Debemos detener del todo el desarrollo de la IA. Es lo que opina Eliezer Yudkowsky, responsable del Machine Intelligence Research Institute. Este experto lleva investigando sobre el desarrollo de una Inteligencia Artificial General —y sus peligros— desde 2001 y es considerado como uno de los fundadores de este campo de investigación. Acaba de publicar una editorial en Time en la que plantea cómo la moratoria de seis meses es mejor que nada, pero que la carta de la FLI "pide demasiado poco" para solventar la amenaza que se nos plantea.
Yudkowsky explica cómo estamos en un campo inexplorado del que no se conocen los límites:
No podemos calcular por adelantado qué ocurrirá y cuándo, y actualmente parece posible imaginar que un laboratorio de investigación pueda cruzar líneas críticas sin enterarse.
Una IA superinteligente nos matará a todos. Aunque ha habido análisis —como el suyo propio— sobre los riesgos, para este experto la conclusión de sus reflexiones sobre el desarrollo de la IA es clara y contundente:
El resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier cosa remotamente parecida a las circunstancias actuales, es que literalmente todo el mundo en la Tierra morirá. No como en "tal vez haya alguna remota posibilidad", sino como en "es obviamente lo que pasará".
No estamos preparados para sobrevivir a una súper IA. Yudkowsky cree que no podamos sobrevivir a algo así sin precisión y preparación. Sin ellas, explica, aparecerá una IA que "no haga lo que queramos y no le importemos ni nosotros ni por los seres vivos que sienten en general". Sería necesario imbuir ese sentimiento y preocupación por esas vidas en la IA, pero actualmente "no sabemos cómo hacerlo". Ante una IA de ese tipo y en la situación actual, la lucha sería fútil. Sería "como si el siglo XI intentara luchar contra el siglo XXI".
GPT-5, AGI y autoconsciencia. Yudkowsky habla además de cómo "no tenemos ni idea de cómo determinar si los sistemas de IA son conscientes de sí mismos" porque no sabemos cómo piensan y desarrollan sus respuestas. De hecho, plantea que si el salto entre GPT-4 y un hipotético GPT-5 es de la misma magnitud que el de GPT-3 a GPT-4, "ya no podremos decir de forma justificable que esta IA probablemente no sea autoconsciente". Ya se habla de GPT-5 como una inteligencia artificial general indistinguible de la inteligencia humana.
Hay que parar totalmente el desarrollo de la IA. Para este experto la única solución es la de detener de forma total ese entrenamiento de futuras IAs. "Debe ser indefinida y a nivel mundial. No puede haber excepciones, incluidos gobiernos y ejércitos". Él apagaría todos los grandes clusters de GPUs en los que se realiza el entrenamiento de las IAs, pondría un límite al consumo energético que se pudiera utilizar para sistemas de IA, e incluso monitorizaría las ventas de tarjetas gráficas. Habló incluso de "estar dispuesto a correr el riesgo de que haya un intercambio nuclear", algo que provocó una gran polémica y que luego aclaró en un largo mensaje en Twitter.
Tardaremos décadas en estar preparados. Yudkowsky recuerda que tardamos más de 60 años desde los inicios de esta disciplina en llegar aquí, y podríamos tardar al menos 30 años en lograr estar preparados para un desarrollo seguro de la IA. Su conclusión es igual de determinante
No estamos preparados. No estamos en el camino de estar significativamente más preparados a corto plazo. Si seguimos así todos moriremos, incluyendo a niños que no eligieron esto y que no hicieron nada malo. Matémoslo [el desarrollo de IAs].
it is possible at some point he will deserve the nobel peace prize for this--I continue to think short timelines and slow takeoff is likely the safest quadrant of the short/long timelines and slow/fast takeoff matrix.
— Sam Altman (@sama) February 3, 2023
El CEO de OpenAI discrepa. El discurso de Yudkowsky no es nuevo: lleva advirtiendo del peligro de desarrollar este tipo de IAs desde principios de los 2000. Sam Altman, CEO de OpenAI —empresa responsable del desarrollo de ChatGPT o GPT-4— no está de acuerdo con esas afirmaciones y conoce muy bien a Yudkowski. En este selfie reciente, por ejemplo, posaba con él y con la pareja de Musk, la cantante Grimes.
¿Paso a paso? Como indicaban en Bloomberg antes incluso de que se publicara la editorial de Time, Altman hablaba en Twitter de ese futuro desarrollo de una inteligencia artificial general:
Habrá momentos aterradores a medida que avancemos hacia sistemas de nivel AGI y perturbaciones significativas, pero las ventajas pueden ser tan asombrosas que bien merece la pena superar los grandes retos para llegar hasta allí.
El propio Altman reconocía en una entrevista con ABCNews esa preocupación por el desarrollo de estas inteligencias artificiales. "Tenemos que tener cuidado. Creo que la gente debería estar feliz con el hecho de que estemos un poco aterrorizados con esto". Aún así, aclaraba, sus desarrollos "esperan que alguien les dé una entrada. Es una herramienta que está muy controlada por el ser humano".
Recordando a Oppenheimer. En una entrevista en The New York Times el editor recordaba cómo en un encuentro previo en 2019 Altman citó a Robert Oppenheimer, uno de los máximos responsables de la creación de la bomba atómica. Entonces dijo que "la tecnología ocurre porque es posible". Para él, explicaba, la inteligencia artificial era tan inevitable ahora como lo fue el Proyecto Manhattan entonces.
Y en OpenAI prometen un desarrollo seguro y responsable. Ese es el mensaje de uno de los apartados de su sitio web. En él se explica cómo "los sistemas de IA se están convirtiendo en parte de la vida cotidiana. La clave está en garantizar que estas máquinas estén alineadas con las intenciones y los valores humanos". El mensaje es ese, pero lo cierto es que aunque originalmente compartían abiertamente la información sobre sus avances, la empresa se ha vuelto mucho más cauta en lo que revela de sus proyectos.
Pero no tienen claro cómo hacerlo (y tienen secretos). Los propios responsables de OpenAI explican en su blog cómo plantean un desarrollo "iterativo y empírico" para ir paso a paso, pero reconocen que ese "alineamiento" de la inteligencia artificial general es complejo de lograr, algo que el propio Yudkowsky señalaba en 2018.
Imagen: Precessor | TechCrunch
Ver 43 comentarios