La Unión Europea sacaba pecho el pasado mes de marzo. Tras un largo proceso el Parlamento Europeo aprobaba la AI Act, la primera legislación específicamente destinada a regular el desarrollo y uso de sistemas de inteligencia artificial.
Como sucedió con la Digital Markets Act (DMA), las intenciones de los reguladores europeos probablemente eran buenas. Ambas iniciativas nacieron teóricamente para proteger los derechos y privacidad de los ciudadanos europeos frente a las grandes plataformas tecnológicas.
El problema es que la obsesión reguladora de la Unión Europea está teniendo un impacto muy negativo para ciudadanos, empresas y desarrolladores europeos.
Nos está lastrando. Nos está dejando atrás. Veamos por qué.
Tenemos una IA para Europa. Y luego una mejor para el resto del mundo
"No creemos que podamos desplegar Apple Intelligence a nuestros usuarios de la UE este año". La declaración, realizada por Apple la semana pasada, era un gran jarro de agua fría. Los ciudadanos de la Unión Europea que esperaban poder disfrutar de esa tecnología en sus iPhone y sus Mac tendrán que esperar más de la cuenta.

En Apple no quieren arriesgar, y citaban "las incertidumbres regulatorias provocadas por la Ley de Mercados Digitales" como la razón de esa decisión. La DMA es algo muy serio para las grandes tecnológicas, y la compañía liderada por Tim Cook lo sabe bien: la Comisión Europea acaba de abrirle otra investigación por una potencial violación de esta nueva normativa.
En realidad ese jarro de agua fría no es el primero y probablemente no será el último de los que recibamos en este ámbito de la IA. La llegada tanto de la DMA como de la IA Act pone el futuro de la inteligencia artificial muy oscuro para la Unión Europea, y aunque las intenciones son aparentemente buenas —evitar riesgos en el desarrollo de los modelos, y proteger la privacidad de los ciudadanos europeos—, las consecuencias están empezando a ser terribles.
Lo vimos ya con la aplicación móvil de Gemini, el chatbot de Google. En su presentación estuvo disponible para 150 países, pero ninguno de ellos pertenecía a la Unión Europea.
El problema se resolvió un mes después. Ocurrió exactamente lo mismo con Google Bard un año antes: este chatbot tardó dos meses en desembarcar en la Unión Europea.
La llegada tanto de la DMA como de la IA Act pone el futuro de la inteligencia artificial muy oscuro para la Unión Europea
La cosa es más grave en otros casos. Copilot para Windows 11 fue anunciado en septiembre de 2023. Nueve meses después seguimos sin tener acceso oficial a dichas características, y en la comunidad de Microsoft uno de sus portavoces explicaba en abril que "se ha retrasado a 2024 debido a las regulaciones de la UE". No hay fechas definidas para esa disponibilidad, y simplemente añaden que están trabajando para que Copilot esté disponible "lo antes posible".
Uno de los últimos afectados es Meta, que indicó el pasado 14 de junio que retrasaría el lanzamiento de su chatbot Meta AI en la Unión Europea. La razón: los reguladores habían exigido que se detuviese el entrenamiento de sus LLM con publicaciones de Instagram o Facebook.

La falta de disponibilidad suele poder solventarse por aquellos usuarios algo más avanzados (y avezados). Con la app móvil de Gemini, por ejemplo, era posible conseguir instalar el APK de la app, y en otros casos, por ejemplo en chatbots en la web, lo normal es que baste con utilizar una VPN para "engañar" al servidor y que piense que no estamos en la Unión Europea. En el caso de Copilot para Windows 11, también había formas de saltarse las restricciones.
La AI Act es un intento de evitar riesgos en el desarrollo y despliegue de sistemas de inteligencia artificial, pero algunos expertos avisan de que esta regulación puede acabar siendo un cuello de botella contra la innovación.
Así lo indica Yann LeCun, máximo responsable de la división de IA en Meta, que destacaba en CNN que la gran pregunta sobre esta legislación es: "¿deberían la investigación y el desarrollo de IA ser regulados? Hay cláusulas en la AI Act y en otros sitios que regulan el I+D. No creo que esa sea una buena idea". Para él estamos muy lejos de los riesgos casi distópicos que parecen querer tratar de evitar los euroreguladores:
"Hoy en día, intentar averiguar cómo hacer seguros los futuros sistemas superinteligentes de IA es como preguntarse en 1925 "¿cómo hacemos seguro el transporte a reacción?", cuando el transporte a reacción aún no se había inventado".
Andrés Torrubia lo tiene claro
Para ahondar más en el problema quisimos hablar con Andrés Torrubia (@antor), que ya ha participado en varios temas relacionados con la IA en Xataka. Fue además invitado especial de dos de los episodios de Captcha (1x03 y 2x04), el vídeo/podcast que creamos en Xataka en 2018. emprendedor y cofundador del Instituto de Inteligencia Artificial (IIA) y de Medbravo.

Andrés comenzaba recordándonos como las teóricas buenas intenciones de la Unión Europea pueden acabar siendo contraproducentes. Ocurrió con las políticas relativas a las cookies: proteger los derechos de los ciudadanos europeos era buena idea, pero la forma en la que se han implementado esas protecciones han sido un desastre, y hoy en día navegar por internet no es mejor de lo que era antes, sino (mucho) peor.
Para él "el impacto de la AI Act está por ver, y no se sabe si será mejor el remedio que la enfermedad". A este experto le parecía razonable ser cauteloso, pero "si uno es muy cauteloso antes de tiempo, eso tiene un coste".
La legislación europea ha provocado precisamente eso, y desde la Unión Europea los reguladores han presumido de cómo tanto la DMA como la AI Act son súper protectoras para el consumidor y súper buenas para los innovadores. Torrubia, que precisamente es un emprendedor e innovador, lo tiene claro: "lo segundo es mentira".
El emprendedor de la UE dirá "solo me han cortado una pierna, aun puedo andar", pero estás compitiendo con un tío que tiene dos piernas musculosas y al que además le están dando anabolizantes
Como nos explicaba, "en el mundo de la tecnología, hay un pequeño periodo de conquista". Cuando se descubre un nuevo mercado, "hay vacíos legales, y hay un gran premio por ser el primero. Muchas veces se logra aprovechando zonas grises".
Es, nos recuerda, lo que ocurrió con empresas como Uber, Airbnb, Cabify o LinkedIn: ahora mismo no podrías crear empresas así como las crearon aquellos fundadores, pero es que además esas empresas han logrado dominar el mercado.
Hay emprendedores europeos, nos decía, que tienen una especie de síndrome de Estocolmo con este tipo de legislación.
"Se dicen a sí mismos que esto no es tan malo, solo me han cortado una pierna, aun puedo andar, pero estás compitiendo con un tío que tiene dos piernas musculosas y al que además le están dando anabolizantes.
¿Qué pediría yo para incentivar este sector estratégico? Pediría una ventaja injusta que me equipare el mercado de Europa con el de EEUU o incluso el de China. A cambio recibo algo que me frena".
Lo que está pasando con la llegada tardía de algunas opciones de IA al mercado europeo es un buen ejemplo de ese impacto negativo. No parece especialmente grave no poder acceder a Copilot en Windows o que tengamos que esperar unos meses más para acceder al nuevo Gemini o ChatGPT.
Pero es que como dice él, sí que es grave. "Igual tienes acceso un año más tarde, y el conjunto de chavales que lo probarían, se ilusionarían, montarían una empresa y luego serían germen de otra cosa y de la innovación irían con un retraso enorme".
Para Andrés Torrubia el peligro es evidente. El coste puede ser colosal para un continente que según él "está viviendo de las rentas del siglo XX". Legislaciones como estas, a pesar de sus probables buenas intenciones, pueden acabar condenándonos.
Ya lo están haciendo un poco, de hecho.
Imagen | Rong_715 con Midjourney
Ver 36 comentarios
36 comentarios
p2dzca
No se trata de la 'obsesión reguladora' de la UE, sino de que el resto del mundo no regula adecuadamente. En un mundo global, la regulación y los acuerdos deben ser globales. Y sabemos que es posible una regulación. Hace años, la comunidad científica identificó la necesidad de regular la investigación con edición genética, especialmente con seres humanos por razones obvias. Hubo voluntad para regularla y hubo un acuerdo mundial. En el caso de IA, no hay voluntad. Estamos en una carrera desaforada y frenética en la que nadie quiere límites.
Esta charla de TED, "The Dark Side of Competition in AI", de Liv Boeree, explica muy bien los entresijos de la competición y cómo debemos abordarla:
https://www.youtube.com/watch?v=WX_vN1QYgmE
Trocotronic
Lo decís como si fuese algo malo. No podemos usar coches o poner el aire acondicionado pero empresas pueden gastar gigavatios para que una IA dibuje a Scarlett Johansson con 3 pechos.
Usuario desactivado
El afán regulador europeo hace que tengamos vacaciones, condiciones de higiene y seguridad en el trabajo, un salario mas o menos digno, etc. Y si, en ese campo también estamos en desventaja con otros países, pero es que hay que plantearse "para qué" queremos desarrollarnos.
Pueden decir misa sobre la IA, pero por ahora está siendo usada en un 99% de las veces para aprovecharse de los sesgos del ser humano y sacarnos todos los cuartos que sean posibles.
No creo que nadie en europa ponga impedimento a un alphafold, por ejemplo. Lo que no queremos es que una IA te mantenga adicto a una ruleta de skins del Fortnite, de apuestas del fútbol, o cree bulos mediante bots en redes sociales.
togepix
A mi me hace muchísima gracia estos liberales de mercado que no quieren regulación .
- Pues chico , que quieres que te diga , la IA ha demostrado fallos enormes , resultados desastrosos y sesgados que las propias compañías han tenido que rectificar demostrando que el producto es incontrolable aún e impredecible .
- Cuando la UE regula estrictamente , malo . Les parece terrible y que nos retrasamos como potencia . CURIOSO ! La súper potencia China REGULA MUCHO MÁS y estrictamente , mucho más cerrado y no les veo decir “ van retardados y acabarán mal “
Criticar a la UE les pone excitados , pero la súper potencia china lo hace y no dicen ni pio .
EgoZentrum
Si tengo que esperar dos meses para que unos abogados aseguren que una aplicación trata con seguridad y honestidad mis datos personales, estoy dispuesto a ello. No seamos alarmistas. La alternativa es el todo vale, el tráfico de datos sin consentimiento y la mercantilización de la privacidad.
Entiendo que un editor de Xataka tenga prisa por tener siempre lo ultimísimo, pero el ciudadano medio tiene unos derechos.
Land-of-Mordor
El que grandes compañías pongan como excusa que no prestan ciertos servicios en territorio europeo "porque tienen que adaptarse a la legislación europea" suena a argumento manido y barato. Como cuando se escudan en el "cambio euro-dólar" para poner ciertos precios, que cuando ese ratio de cambio se invierte no provoca una revisión de los precios a la baja.
Como ya han comentado acertadamente otros, los desarrollos actuales de IA cometen errores de bulto, bien por diseño, bien por entrenarlos con conjuntos de datos sesgados. Creo que la sociedad en 2024 ha avanzado lo suficiente como para no tener que esperar a que ocurra la primera "tragedia" por el uso de la IA para poner el grito en el cielo y empezar a regularla. Lo curioso del asunto es que si no hubiera regulación y pasara algo serían los que ahora claman en contra de la regulación los primeros en decir "¿pero es que no hay nadie controlando esto? ¿cómo es posible que esto haya ocurrido? ¿dónde estaba el gobierno?, etc"
xconv
Obsesión reguladora ja ja ja. Pero habéis visto lo que pasó con Worldcoin o estais metidos en una cueva/burbuja que os impide ver más allá, es alucinante.
itrio
Vamos a ver, los de Apple presentan su IA argumentando que va a trabajar en local sin mandar datos a ningún servidor.... y resulta que 'por culpa de la regulación europea' van a tener que paralizarlo y revisarlo... ¿Y el problema es la regulación europea?
Con esto de la IA las grandes compañías están haciendo lo que les da la gana con nuestros datos. Y aún hay muchos que les aplauden con las orejas.
juliosao
Si la regulación de la UE evita que haya una IA en mi PC, enviando todo a sus creadores y alimentándose de todo lo que hago BIENVENIDA SEA ESA REGULACIÓN.
mszerox
Cuando ves que las regulaciones vienen de los intelectuales y de los democraticos te dicen el nivel del peligro que hay.
Menos mal que la fuerza atomica aun no es global, sino estariamos extintos.
cacatuaromantica
Al que no le gusta Europa que se vaya, yo prefiero regulaciones que si no seguiriamos en los años 80
iln
Te tienes que reír, la misma ue que critica a china y su control social que regula mucho y dice proteger la privacidad luego quiere cargarse el cifrado De las aplicaciones de mensajería, hacer un id digital con todos tus datos(hola hackers), cbdcs, cámaras con la que antes eran alegales y ahora legales...
Estas elecciones podía haber cambiado algo pero...el esclavo quiere su correa.
pesats
Mejor vender el culo en pos de la modernidad....
paperman
Las empresas privadas que desarrollan la iA solo quieren obtener grandes beneficios lo más rápidamente posible, independientemente de las repercusiones. Esto no va de progreso, esto va de contentar a unos inversores que han aportado ingentes cantidades de dinero en una tecnología que les han prometido que va a devolverles la inversión por multiplicado. No les interesan los avances para la humanidad, ni las cuestiones éticas y por eso ya despidieron desde hace tiempo a todos sus departamentos de ética. Hacían demasiado ruido con palabras sensatas y mensajes de precaución, cuando el único ruido que les interesa oír es del dinero lloviendo desde el cielo. El modelo de negocio de estas empresas es peligroso. MUY peligroso para la sociedad. A algunos de nosotros ya nos lleva j0diendo la vida completamente desde hace más de un año, y lo que estamos pasando ahora mismo se extenderá a la mayoría si no se legisla adecuadamente. Ponerle límite es más que necesario y se está tardando demasiado en hacerlo de forma global.
netmejias
Fenomenal, que regulen. Que usen el sentido común. Para eso vivimos en una región basada en un estado de derecho.