La obsesión reguladora de la UE plantea un mundo en el que la IA tendrá dos velocidades. Y Europa saldrá perdiendo

  • La DMA y la AI Act han nacido con buenas intenciones, pero su impacto en la innovación europea puede ser preocupante

  • Hablamos con Andrés Torrubia, emprendedor y experto en IA, que explica los riesgos que impone la regulación europea

La Unión Europea sacaba pecho el pasado mes de marzo. Tras un largo proceso el Parlamento Europeo aprobaba la AI Act, la primera legislación específicamente destinada a regular el desarrollo y uso de sistemas de inteligencia artificial.

Como sucedió con la Digital Markets Act (DMA), las intenciones de los reguladores europeos probablemente eran buenas. Ambas iniciativas nacieron teóricamente para proteger los derechos y privacidad de los ciudadanos europeos frente a las grandes plataformas tecnológicas.

El problema es que la obsesión reguladora de la Unión Europea está teniendo un impacto muy negativo para ciudadanos, empresas y desarrolladores europeos.

Nos está lastrando. Nos está dejando atrás. Veamos por qué.

Tenemos una IA para Europa. Y luego una mejor para el resto del mundo

"No creemos que podamos desplegar Apple Intelligence a nuestros usuarios de la UE este año". La declaración, realizada por Apple la semana pasada, era un gran jarro de agua fría. Los ciudadanos de la Unión Europea que esperaban poder disfrutar de esa tecnología en sus iPhone y sus Mac tendrán que esperar más de la cuenta.

Tim Cook, CEO de Apple. Fuente: Fortune Photo.

En Apple no quieren arriesgar, y citaban "las incertidumbres regulatorias provocadas por la Ley de Mercados Digitales" como la razón de esa decisión. La DMA es algo muy serio para las grandes tecnológicas, y la compañía liderada por Tim Cook lo sabe bien: la Comisión Europea acaba de abrirle otra investigación por una potencial violación de esta nueva normativa.

En realidad ese jarro de agua fría no es el primero y probablemente no será el último de los que recibamos en este ámbito de la IA. La llegada tanto de la DMA como de la IA Act pone el futuro de la inteligencia artificial muy oscuro para la Unión Europea, y aunque las intenciones son aparentemente buenas —evitar riesgos en el desarrollo de los modelos, y proteger la privacidad de los ciudadanos europeos—, las consecuencias están empezando a ser terribles.

Lo vimos ya con la aplicación móvil de Gemini, el chatbot de Google. En su presentación estuvo disponible para 150 países, pero ninguno de ellos pertenecía a la Unión Europea.

El problema se resolvió un mes después. Ocurrió exactamente lo mismo con Google Bard un año antes: este chatbot tardó dos meses en desembarcar en la Unión Europea.

La llegada tanto de la DMA como de la IA Act pone el futuro de la inteligencia artificial muy oscuro para la Unión Europea

La cosa es más grave en otros casos. Copilot para Windows 11 fue anunciado en septiembre de 2023. Nueve meses después seguimos sin tener acceso oficial a dichas características, y en la comunidad de Microsoft uno de sus portavoces explicaba en abril que "se ha retrasado a 2024 debido a las regulaciones de la UE". No hay fechas definidas para esa disponibilidad, y simplemente añaden que están trabajando para que Copilot esté disponible "lo antes posible".

Uno de los últimos afectados es Meta, que indicó el pasado 14 de junio que retrasaría el lanzamiento de su chatbot Meta AI en la Unión Europea. La razón: los reguladores habían exigido que se detuviese el entrenamiento de sus LLM con publicaciones de Instagram o Facebook.

La falta de disponibilidad suele poder solventarse por aquellos usuarios algo más avanzados (y avezados). Con la app móvil de Gemini, por ejemplo, era posible conseguir instalar el APK de la app, y en otros casos, por ejemplo en chatbots en la web, lo normal es que baste con utilizar una VPN para "engañar" al servidor y que piense que no estamos en la Unión Europea. En el caso de Copilot para Windows 11, también había formas de saltarse las restricciones.

La AI Act es un intento de evitar riesgos en el desarrollo y despliegue de sistemas de inteligencia artificial, pero algunos expertos avisan de que esta regulación puede acabar siendo un cuello de botella contra la innovación.

Así lo indica Yann LeCun, máximo responsable de la división de IA en Meta, que destacaba en CNN que la gran pregunta sobre esta legislación es: "¿deberían la investigación y el desarrollo de IA ser regulados? Hay cláusulas en la AI Act y en otros sitios que regulan el I+D. No creo que esa sea una buena idea". Para él estamos muy lejos de los riesgos casi distópicos que parecen querer tratar de evitar los euroreguladores:

"Hoy en día, intentar averiguar cómo hacer seguros los futuros sistemas superinteligentes de IA es como preguntarse en 1925 "¿cómo hacemos seguro el transporte a reacción?", cuando el transporte a reacción aún no se había inventado".

Andrés Torrubia lo tiene claro

Para ahondar más en el problema quisimos hablar con Andrés Torrubia (@antor), que ya ha participado en varios temas relacionados con la IA en Xataka. Fue además invitado especial de dos de los episodios de Captcha (1x03 y 2x04), el vídeo/podcast que creamos en Xataka en 2018.  emprendedor y cofundador del Instituto de Inteligencia Artificial (IIA) y de Medbravo.

Andrés comenzaba recordándonos como las teóricas buenas intenciones de la Unión Europea pueden acabar siendo contraproducentes. Ocurrió con las políticas relativas a las cookies: proteger los derechos de los ciudadanos europeos era buena idea, pero la forma en la que se han implementado esas protecciones han sido un desastre, y hoy en día navegar por internet no es mejor de lo que era antes, sino (mucho) peor.

Para él "el impacto de la AI Act está por ver, y no se sabe si será mejor el remedio que la enfermedad". A este experto le parecía razonable ser cauteloso, pero "si uno es muy cauteloso antes de tiempo, eso tiene un coste".

La legislación europea ha provocado precisamente eso, y desde la Unión Europea los reguladores han presumido de cómo tanto la DMA como la AI Act son súper protectoras para el consumidor y súper buenas para los innovadores. Torrubia, que precisamente es un emprendedor e innovador, lo tiene claro: "lo segundo es mentira".

El emprendedor de la UE dirá "solo me han cortado una pierna, aun puedo andar", pero estás compitiendo con un tío que tiene dos piernas musculosas y al que además le están dando anabolizantes

Como nos explicaba, "en el mundo de la tecnología, hay un pequeño periodo de conquista". Cuando se descubre un nuevo mercado, "hay vacíos legales, y hay un gran premio por ser el primero. Muchas veces se logra aprovechando zonas grises". 

Es, nos recuerda, lo que ocurrió con empresas como Uber, Airbnb, Cabify o LinkedIn: ahora mismo no podrías crear empresas así como las crearon aquellos fundadores, pero es que además esas empresas han logrado dominar el mercado.

Hay emprendedores europeos, nos decía, que tienen una especie de síndrome de Estocolmo con este tipo de legislación.

"Se dicen a sí mismos que esto no es tan malo, solo me han cortado una pierna, aun puedo andar, pero estás compitiendo con un tío que tiene dos piernas musculosas y al que además le están dando anabolizantes.
¿Qué pediría yo para incentivar este sector estratégico? Pediría una ventaja injusta que me equipare el mercado de Europa con el de EEUU o incluso el de China. A cambio recibo algo que me frena".

Lo que está pasando con la llegada tardía de algunas opciones de IA al mercado europeo es un buen ejemplo de ese impacto negativo. No parece especialmente grave no poder acceder a Copilot en Windows o que tengamos que esperar unos meses más para acceder al nuevo Gemini o ChatGPT.

Pero es que como dice él, sí que es grave. "Igual tienes acceso un año más tarde, y el conjunto de chavales que lo probarían, se ilusionarían, montarían una empresa y luego serían germen de otra cosa y de la innovación irían con un retraso enorme".

Para Andrés Torrubia el peligro es evidente. El coste puede ser colosal para un continente que según él "está viviendo de las rentas del siglo XX". Legislaciones como estas, a pesar de sus probables buenas intenciones, pueden acabar condenándonos.

Ya lo están haciendo un poco, de hecho.

Imagen | Rong_715 con Midjourney

Ver todos los comentarios en https://www.xataka.com

VER 37 Comentarios

Portada de Xataka