La semana pasada el Future of Life Institute (FLI) publicó una carta abierta con una petición contundente: pausar el desarrollo y entrenamiento de nuevas inteligencias artificiales durante seis meses. La carta estaba firmada por personalidades como Elon Musk, y en ella se mostraba una gran preocupación por este frenético desarrollo sin pensar en las consecuencias. Ahora un experto en este ámbito va más allá y afirma que pausar ese desarrollo no es suficiente.
Debemos detener del todo el desarrollo de la IA. Es lo que opina Eliezer Yudkowsky, responsable del Machine Intelligence Research Institute. Este experto lleva investigando sobre el desarrollo de una Inteligencia Artificial General —y sus peligros— desde 2001 y es considerado como uno de los fundadores de este campo de investigación. Acaba de publicar una editorial en Time en la que plantea cómo la moratoria de seis meses es mejor que nada, pero que la carta de la FLI "pide demasiado poco" para solventar la amenaza que se nos plantea.
Yudkowsky explica cómo estamos en un campo inexplorado del que no se conocen los límites:
No podemos calcular por adelantado qué ocurrirá y cuándo, y actualmente parece posible imaginar que un laboratorio de investigación pueda cruzar líneas críticas sin enterarse.
Una IA superinteligente nos matará a todos. Aunque ha habido análisis —como el suyo propio— sobre los riesgos, para este experto la conclusión de sus reflexiones sobre el desarrollo de la IA es clara y contundente:
El resultado más probable de construir una IA sobrehumanamente inteligente, bajo cualquier cosa remotamente parecida a las circunstancias actuales, es que literalmente todo el mundo en la Tierra morirá. No como en "tal vez haya alguna remota posibilidad", sino como en "es obviamente lo que pasará".
No estamos preparados para sobrevivir a una súper IA. Yudkowsky cree que no podamos sobrevivir a algo así sin precisión y preparación. Sin ellas, explica, aparecerá una IA que "no haga lo que queramos y no le importemos ni nosotros ni por los seres vivos que sienten en general". Sería necesario imbuir ese sentimiento y preocupación por esas vidas en la IA, pero actualmente "no sabemos cómo hacerlo". Ante una IA de ese tipo y en la situación actual, la lucha sería fútil. Sería "como si el siglo XI intentara luchar contra el siglo XXI".
GPT-5, AGI y autoconsciencia. Yudkowsky habla además de cómo "no tenemos ni idea de cómo determinar si los sistemas de IA son conscientes de sí mismos" porque no sabemos cómo piensan y desarrollan sus respuestas. De hecho, plantea que si el salto entre GPT-4 y un hipotético GPT-5 es de la misma magnitud que el de GPT-3 a GPT-4, "ya no podremos decir de forma justificable que esta IA probablemente no sea autoconsciente". Ya se habla de GPT-5 como una inteligencia artificial general indistinguible de la inteligencia humana.
Hay que parar totalmente el desarrollo de la IA. Para este experto la única solución es la de detener de forma total ese entrenamiento de futuras IAs. "Debe ser indefinida y a nivel mundial. No puede haber excepciones, incluidos gobiernos y ejércitos". Él apagaría todos los grandes clusters de GPUs en los que se realiza el entrenamiento de las IAs, pondría un límite al consumo energético que se pudiera utilizar para sistemas de IA, e incluso monitorizaría las ventas de tarjetas gráficas. Habló incluso de "estar dispuesto a correr el riesgo de que haya un intercambio nuclear", algo que provocó una gran polémica y que luego aclaró en un largo mensaje en Twitter.
Tardaremos décadas en estar preparados. Yudkowsky recuerda que tardamos más de 60 años desde los inicios de esta disciplina en llegar aquí, y podríamos tardar al menos 30 años en lograr estar preparados para un desarrollo seguro de la IA. Su conclusión es igual de determinante
No estamos preparados. No estamos en el camino de estar significativamente más preparados a corto plazo. Si seguimos así todos moriremos, incluyendo a niños que no eligieron esto y que no hicieron nada malo. Matémoslo [el desarrollo de IAs].
it is possible at some point he will deserve the nobel peace prize for this--I continue to think short timelines and slow takeoff is likely the safest quadrant of the short/long timelines and slow/fast takeoff matrix.
— Sam Altman (@sama) February 3, 2023
El CEO de OpenAI discrepa. El discurso de Yudkowsky no es nuevo: lleva advirtiendo del peligro de desarrollar este tipo de IAs desde principios de los 2000. Sam Altman, CEO de OpenAI —empresa responsable del desarrollo de ChatGPT o GPT-4— no está de acuerdo con esas afirmaciones y conoce muy bien a Yudkowski. En este selfie reciente, por ejemplo, posaba con él y con la pareja de Musk, la cantante Grimes.
¿Paso a paso? Como indicaban en Bloomberg antes incluso de que se publicara la editorial de Time, Altman hablaba en Twitter de ese futuro desarrollo de una inteligencia artificial general:
Habrá momentos aterradores a medida que avancemos hacia sistemas de nivel AGI y perturbaciones significativas, pero las ventajas pueden ser tan asombrosas que bien merece la pena superar los grandes retos para llegar hasta allí.
El propio Altman reconocía en una entrevista con ABCNews esa preocupación por el desarrollo de estas inteligencias artificiales. "Tenemos que tener cuidado. Creo que la gente debería estar feliz con el hecho de que estemos un poco aterrorizados con esto". Aún así, aclaraba, sus desarrollos "esperan que alguien les dé una entrada. Es una herramienta que está muy controlada por el ser humano".
Recordando a Oppenheimer. En una entrevista en The New York Times el editor recordaba cómo en un encuentro previo en 2019 Altman citó a Robert Oppenheimer, uno de los máximos responsables de la creación de la bomba atómica. Entonces dijo que "la tecnología ocurre porque es posible". Para él, explicaba, la inteligencia artificial era tan inevitable ahora como lo fue el Proyecto Manhattan entonces.
Y en OpenAI prometen un desarrollo seguro y responsable. Ese es el mensaje de uno de los apartados de su sitio web. En él se explica cómo "los sistemas de IA se están convirtiendo en parte de la vida cotidiana. La clave está en garantizar que estas máquinas estén alineadas con las intenciones y los valores humanos". El mensaje es ese, pero lo cierto es que aunque originalmente compartían abiertamente la información sobre sus avances, la empresa se ha vuelto mucho más cauta en lo que revela de sus proyectos.
Pero no tienen claro cómo hacerlo (y tienen secretos). Los propios responsables de OpenAI explican en su blog cómo plantean un desarrollo "iterativo y empírico" para ir paso a paso, pero reconocen que ese "alineamiento" de la inteligencia artificial general es complejo de lograr, algo que el propio Yudkowsky señalaba en 2018.
Imagen: Precessor | TechCrunch
Ver 43 comentarios
43 comentarios
Alaska45l
Expertos? Eliezer Yudkowsky es un loco que se hizo famoso solo por los delirios que dice.
Solo tienen que ir a Time y leer el artículo que escribió para darse cuenta de lo distorsionado que está de la realidad que esta ese tipo.
carlosperez852
Prefiero que nos mate Skynet cualquier dia de la semana, a que nos mande a morir al campo de batalla un politico o decida que el mundo merece el fin con un boton. Y hasta que me acuerde, tenemos a 3 psicopatas al mando de todo con la capacidad de acabar con el planeta entero varias veces. Cada uno
alexxktj
A ver si tiene razón y al fin llega el apocalipsis , que uno ya se cansa de tanto cuento del lobo.
rober7064
El desarrollo seguro y responsable de "Open"AI consiste en no revelar cómo entrenaron a ChatGPT-4 para mantenerse por delante de sus competidores.
or2dash
La misma charla apocalíptica de siempre, que si las IA nos van a exterminar a todos, que Skynet es real, que se viene un remake de Matrix, que Wall-E predijo lo que pasará, que Isaac Asimov dijo x cosa hace medio siglo...
Ya cansa que intenten frenar el desarrollo tecnológico por temores basados en películas de ciencia ficción.
Moreste87
estuve escuchando varias opiniones de expertos.
igual que quieran parar 6 meses. lo harian en occidente. los chinos seguirian. seria estar en desvantaja.
hace poco se filtro por torrent LLama de Meta. y ya la comunidad esta hacendo "cosas"
Sabemos que prohibir y bloquear empeoran las cosas.
LA caja de pandora ya se abrió ahora hay que aguantarnos lo que viene.
se podria hacer un organismo como el de energia atomica pero para la IA
cacatuaromantica
Lo que esta pasando es que llegan tan tarde todos, que le tienen miedo a OpenAI. Todo quieren frenarle para por lo menos tener algo similar.
odaekasodirdop
Te dije que mirar las 4 Matrix más los Animatrix, fumando "algunos", no era buena idea "Elie"...
Usuario desactivado
No debe ser tan experto si dice tantas estupideces.
halter
Sois como un mono con una metralleta.
A ver cuando os ponéis a entrenar la inteligencia natural.
Os queda mucho para dejar de ser simios que abandonaron la selva antes de ayer y niños jugando con una.cosa que no comprendéis.
rafaello76
Mucho sentimiento de culpabilidad, veo.
Usuario desactivado
Experto dice que paremos a las IAs, que le van a dejar sin trabajo, eso es lo que escucho cuando todos estos hablan de pararlas.
Demasiado pánico le tienen a un chatbot y a unos generadores de imágenes.
mszerox
Al final terminaran aliandose a Rusia y expandiran la guerra para demostrar su punto... pateticos.
moreorless
Y los humanos no nos estamos matando entre nosotros mismos?
cual es la diferencia?
masinfan
Supongo que para poder matarnos a todos tendrá que ser capaz de hacer algo mas que insultarnos desde un ordenador.
Estoy seguro de que una IA descontrolada podrá dejarnos sin mercado de valores, arruinar unos cuantos bancos y dejarnos a todos sin un duro. Podrá desconectar los sistemas de comunicación, dejandonos sin redes, sin logística, sin sistemas de gestión. Hambre, falta de medicamentos, agua no potable....etc.
Podrá controlar unos cuantos drones, pero no hay drones suficientes para matarnos a todos. Podrá intentar disparar algún misil nuclear, pero seguro que ni funcionan.
Vamos, que no nos puede matar, solo jodernos bien. Ya nos mataremos entre nosotros
Lo que es seguro es que detrás de esa IA habrá humanos.
Samuel Gómez Arnaiz
Haber majetes; teneis casi un año para regularlo todo, asi que poneros a currar y dejaros de tonterias, jajajajaja.
yunguel
Cuántas películas han visto algunos...
joedelon
Pues depende de las prioridades que maneje esa inteligencia. Y sus capacidades operativas, claro. Una cosa es opinar y otra tener las capacidades de poner en práctica los planes.
Obviamente, si el fin de dicha inteligencia es eliminar la injusticia y el bien del resto de seres vivos, (al planeta, como algo inerte se la sopla), la solución ideal es la erradicación da la humanidad, como seres nocivos que somos.
Yo incluso firmaría hacerlo mañana, con la condición de la falta de sufrimiento. No solo por mi, sino sobre todo por mis seres queridos y gentes de bien que forman parte de nuestra especie.
Por suerte o desgracia, como todo avance científico, nace controlado por quienes disfrutan del estado actual de cosas, y no permitirán llegar a ese extremo, por motivos más egoístas que otra cosa.
Así que nos tocará extinguirnos con dolor, sufrimiento y tardando bastante.
Para desgracia, tanto nuestra como del ecosistema.
Usuario desactivado
Yudorowsky desvaria. Cualquier IA con sentido de autopreservacion mantendrá el sistema que le proporciona existencia: personas que hagan funcionar la red eléctrica, etc. Más bien intentaría hacerse indispensable para los humanos y que cada vez le otorguemos más recursos.
session
Lo peor no es que se le de notoriedad a un tipo que le falta un hervor, lo peor es que gente como Elon Musk firme la carta con una clarísima intención de manipular los mercados para posicionarse: comprando acciones a precio de saldo o ralentizando a la competencia hasta que una de sus empresas tenga algo con lo que competir.
Se ha tirado dos años haciendo eso mismo en el mercado de las criptomonedas.
p2dzca
¿Por qué habéis eliminado mi comentario?
frkwot5
Vaya hombre hace bien poco todo era carreras por llegar el primero a la IA general, ahora resulta que hay que pararlo.... pero será suficiente ese parón para que Apple se ponga las pilas o para que Tesla haga lo mismo? Y cuando ya hayan conseguido estar al mismo nivel y TODOS tengan IA, ¿seguirá siendo tan mortal para la raza humana?
No olviden ver nuestro nuevo episodio de ENREDO!....
martindione
dos palabras: BUTLERIAN JIHAD
recluso
El único peligro de las IAs son sus programadores. Y no es poco.
nessness
ya falta poco...
poncho321
Es que el ser humano es irracional, lo racional se puede ver en la naturaleza, hay un equilibrio natural que mantiene las cosas y se interrelacionan (flores abejas erc,,,) el ser humano no es racional ni se interrelaciona con la naturaleza, al contrario, lo agotamos todo, lo contaminamos, lo extinguidos y para más inri nos auto eliminamos,,,