Los grandes expertos de la IA comparten un mensaje sobre el "riesgo de extinción": les bastan 22 palabras

Los grandes expertos de la IA comparten un mensaje sobre el "riesgo de extinción": les bastan 22 palabras
Sin comentarios Facebook Twitter Flipboard E-mail

El desarrollo de la inteligencia artificial está en plena ebullición, pero frente a todas las ventajas que puede traer también están los potenciales problemas que puede causar. Un grupo de expertos en inteligencia artificial han querido incidir en esos riesgos, y lo han hecho de una forma muy especial.

Un mensaje de 22 palabras. El Center for AI Safety es una ONG con el objetivo de "reducir los riesgos a nivel de sociedad que conlleva la IA". En su web se ha publicado el "Comunicado sobre el riesgo de la IA" que reúne a diversos expertos en IA, académicos, periodistas y reguladores. Todos ellos han querido avisar de los peligros de desarrollar esta tecnología de forma inadecuada, y para ello han usado un mensaje contundente de tan solo 22 palabras (27 en su traducción al español):

"Mitigar el riesgo de extinción por la IA debería ser una prioridad mundial, junto con otros riesgos a escala social como las pandemias y la guerra nuclear".

Grandes personalidades lo firman. Entre los firmantes están Geoffrey Hinton —calificado como "el padrino de la IA"—, Yoshua Bengio —premio Turing 2018—, Demis Hassabis —CEO de DeepMind—, Dario Amodei —CEO de Anthropic—, Kevin Scott —CTO de Microsoft—, Bruce Schneier —uno de los mayores expertos en ciberseguridad— o Sam Altman —CEO de OpenAI—. Hay muchas más personalidades, y de hecho cualquier experto se puede sumar al comunicado en el formulario que ofrecen en la web del comunicado.

Pero otras no. Hay algunas ausencias singulares, como lasd e Yann LeCun —máximo responsable de IA en Meta—, Mark Zuckerberg, Bill Gates —que se muestra entusiasta pero también cauto sobre esta revolución— o Elon Musk. Este último caso es notable, sobre todo teniendo en cuenta que él fue uno de los grandes apoyos del reciente intento por pausar el desarrollo de modelos de IA durante seis meses.

Un momento delicado. El mensaje llega en un momento especial, ya que plataformas como ChatGPT han detonado una verdadera revolución que ha atraído a millones de personas y a muchísimas empresas. Está siendo de hecho motor del impulso económico de varias de las Big Tech —con NVIDIA a la cabeza—, pero al mismo tiempo se están generando debates importantes tanto en EEUU como en Europa sobre cómo regular su desarrollo.

Carta abierta. Como señalan en The New York Times, Dan Hendrycks, responsable del Center for AI Safety, indicaba que esta es una carta abierta que permite a los expertos unirse públicamente a la preocupación por el desarrollo frenético de este campo. "Existe la idea errónea, incluso en la comunidad de la inteligencia artificial, de que sólo hay un puñado de catastrofistas. Pero, de hecho, muchas personas expresan en privado su preocupación por estas cosas".

Es, sobre todo, una advertencia más. El mensaje en realidad no es ni mucho menos nuevo. Hace meses Eliezer Yudkowsky decía que sería preferible que hubiera una guerra nuclear a desarrollar sistemas avanzados de IA. Aún así, el mensaje pone de relieve que muchos expertos en efecto ven peligros claros en ese inusitado despliegue de sistemas de inteligencia artificial. Geoffrey Hinton advertía por ejemplo de la amenaza de la desinformación, mientras que Sam Altman declaró en el Congreso con un mensaje más genérico pero igualmente preocupante: "creo que si esta tecnología va mal, puede ir bastante mal".

Imagen | Johnny Guatto / University of Toronto | DeepMind | Village Global

En Xataka | De la amenaza al "estamos encantados": cómo ve Altman el futuro de ChatGPT y OpenAI en Europa

Inicio