La inteligencia artificial es tan prodigiosa que comienza a dar miedo. De hecho, hay quien quiere pausar el entrenamiento de la IA. Un enorme grupo de expertos y personalidades de todo el mundo firmaban estos días una carta abierta para solicitarlo, y entre todos ellos destacaba la presencia de Elon Musk, que curiosamente fue cofundador de OpenAI. Esa petición está generando un gran debate entre los expertos.
La carta. La iniciativa partió del Future of Life Institute (FLI), una ONG con la misión de "reducir los riesgos catastróficos y existenciales globales de tecnologías poderosas". Uno de sus focos es el de mitigar "el riesgo existencial a largo plazo" de la inteligencia artificial superinteligente. Elon Musk, que ya había expresado su preocupación al respecto, donó 10 millones de dólares a este organismo en 2015.
Expertos a favor de pausar la IA. Entre quienes apoyan esa petición están Steve Wozniak (cofundador de Apple), Emad Mostaque (CEO de Stability AI), Yval Noah Harari (autor e historiador), Evan Sharp (cofundador de Pinterest) o Max Tegmark (profesor de física en el MIT y presidente del FLI). Hay incluso ingenieros que trabajan para DeepMind o Microsoft que han firmado esa petición, pero nadie de OpenAI lo ha hecho.
Firmas falsas. El FLI destacaba en Motherboard que todos los firmantes han sido verificados "mediante comunicación directa" con ellos, pero se ha revelado que algunos de los que teóricamente habían firmado en realidad no lo habían hecho. Entre ellos estaban suplantaciones de identidad del CEO de OpenAI, Sam Altman, del presidente de China, Xi Jinping, o del responsable de IA en Meta, Yann LeCunn, que comentó en Twitter que él no la firmó y estaba "en contra de la premisa". FLI acabó editando la lista para volver a verificar las firmas.
This open letter — ironically but unsurprisingly — further fuels AI hype and makes it harder to tackle real, already occurring AI harms. I suspect that it will benefit the companies that it is supposed to regulate, and not society. Let’s break it down. 🧵https://t.co/akQozgMCya
— Arvind Narayanan (@random_walker) March 29, 2023
Críticas. Expertos como Arvind Narayanan, profesor en Princeton, explicaba que solo una de las amenazas planteadas en la carta —la desinformación— era creíble, pero incluso en este caso se exageraba su impacto. Incluso algunos de los firmantes no están del todo convencidos de los argumentos. Gary Marcus, profesor de psicología y neurociencias en la Universidad de Nueva York, explicaba en Reuters que "la carta no es perfecta, pero el espíritu es el adecuado".
Okay, so that AI letter signed by lots of AI researchers calling for a "Pause [on] Giant AI Experiments"? It's just dripping with #Aihype. Here's a quick rundown.
— @emilymbender@dair-community.social on Mastodon (@emilymbender) March 29, 2023
>>
Y más críticas. La carta cita varios estudios, y una de las autoras de uno de ellos, Emily M. Bender, publicaba un hilo en Twitter destacando que la carta "chorrea hype por la IA" y utiliza de forma inadecuada sus conclusiones. En aquel estudio, titulado "Stochastic Parrots", se hablaba no del riesgo de una IA demasiado poderosa, "sino de la concentración de poder en manos de la gente, y sobre la reproducción de sistemas de opresión".
2/There is no realistic way to implement a moratorium and stop all teams from scaling up LLMs, unless governments step in. Having governments pause emerging technologies they don’t understand is anti-competitive, sets a terrible precedent, and is awful innovation policy.
— Andrew Ng (@AndrewYNg) March 29, 2023
Y más aún. Expertos como Andrew Ng, cofundador de Coursera también se muestran contrarios a los argumentos de la carta. Ng ya afirmó hace años que "la inteligencia artificial es la nueva electricidad", y calificaba la propuesta de la carta como "una idea terrible" y añadía el peligro de acometer algo así:
"No hay una forma realista de aplicar una moratoria e impedir que todos los equipos amplíen las LLM, a menos que intervengan los gobiernos. Hacer que los gobiernos pongan freno a tecnologías emergentes que no entienden es anticompetitivo, sienta un precedente terrible y es una pésima política de innovación".
Las otras razones de Musk. La preocupación de Musk parece razonable hasta cierto punto, pero las cosas se complicaron tras desvelarse detalles de su escabrosa relación con OpenAI y con Sam Altman. Musk, uno de los inversores iniciales, abandonó la empresa y ahora probablemente lamenta la decisión. Se habla de cómo está tratando de crear un rival para OpenAI, y esa pausa en el entrenamiento de la IA le vendría muy bien para recuperar terreno. Mientras tanto Altman confiesa que está "muy calmado en el ojo del huracán".
Imagen | Unsplash
En Xataka | Le hemos preguntado a Bard y a ChatGPT las mismas cosas. Estas son las respuestas que nos ha dado cada uno
Ver 12 comentarios