Los euroreguladores presumen de que la UE es la primera en regular la IA, pero la normativa puede ser ampliar la "brecha transatlántica" con EEUU
Joaquín Cuenca y Andrés Torrubia, expertos en este ámbito, dejan clara en Xataka su visión crítica sobre una regulación que puede perjudicar a la UE en materia de innovación
Thierry Breton, comisionado europeo, sacaba pecho orgulloso el pasado 8 de diciembre. "Deal!" ("¡Acuerdo!"), escribía en un mensaje en X. Debajo, casi en modo influencer, publicaba un diagrama de tarta contundente: "Continentes que tienen una regulación IA": La UE aparecía ocupandolo todo porque, efectivamente, ningún otro país o continente cuenta con una regulación sobre IA. La pregunta es si eso es para presumir.
Por un lado, puede que lo sea: Europa lleva tiempo a la cabeza del mundo en la defensa de los derechos fundamentales de sus ciudadanos. Las actuaciones en materia antimonopolio —que se lo digan a Google— o defensa de la privacidad —hola qué tal, Meta— son ejemplares en el viejo continente, y eso ha permitido que efectivamente se protejan nuestros derechos y las "Big Tech" no hagan y deshagan a su antojo.
Por otro, esa obsesión por regular puede estar convirtiéndose en un arma de doble filo. Una que está impidiendo que empresas con ganas de crear lo hagan y que el talento se nos escape para volar a otros lugares en los que uno puede preocuparse por innovar sin más. La sensación es la de que en Estados Unidos y en China crean cosas, y en Europa solo se regulan.
Del efecto Bruselas al efecto Delaware
Eso, de hecho, ha acabado teniendo un nombre: el efecto Bruselas. Que no es más que esa citada ambición por regularlo todo y a todos de forma que esas normativas afecten no solo a empresas y ciudadanos europeos, sino que se conviertan en globales y afecten a todo el planeta.
El concepto fue acuñado en 2012 por la profesora Anu Bradford de la Columbia Law School. Según ella la Unión Europea domina el mundo mediante la externalización de regulaciones: con sus leyes la UE influye más a nivel mundial que EEUU o China, algo que al menos en el ámbito tecnológico en general y en el de la inteligencia artificial en particular parece difícil de aceptar.
Tanto este como el llamado efecto California —que se ciñe a la regulación en el ámbito medioambiental— entran dentro de esa "carrera hacia arriba" ("race to the top") en la que las regulaciones más estrictas son más atractivas para las empresas porque teóricamente facilitan la producción y exportación.
Justamente opuesto a dichos efectos está el efecto Delaware, una "carrera hacia abajo" en el que los países optan por rebajar sus requisitos regulatorios con un claro objeitvo: atraer a empresas que buscan normas menos estrictas.
Ni uno ni otro se ha demostrado claramente, pero en el caso de la inteligencia artificial se ha reabierto el debate sobre una regulación demasiado estricta puede hacer que unos u otros acaban perdiendo la carrera por dominar esta tecnología.
Si como parece la IA plantea una revolución equiparable a la de internet o los smartphones, que un país (o continente) quede atrás puede tener un impacto gigantesco a medio y largo plazo. Y por eso que Thierry Breton sacara pecho quizás fuera algo apresurado.
Ya hay expertos que han puesto nota a la regulación: "Yo la doy un suspenso"
Para ahondar en este tema y entenderlo mejor, en Xataka hemos contado con la ayuda de Andrés Torrubia (@antor), un viejo conocido de esta casa. Le hemos entrevistado y ha colaborado en varios temas relacionados con el ámbito de la inteligencia artificial. Fue además invitado especial de dos de los episodios de Captcha (1x03 y 2x04), el vídeo/podcast que creamos en Xataka en 2018.
Andrés, ingeniero de telecomunicaciones de formación, es cofundador del Instituto de Inteligencia Artificial (IIA) y de Medbravo, pero además es un emprendedor inquieto: además de crear diversas empresas lleva años participando en competiciones de inteligencia artificial en las que lucha contra grandes gigantes tecnológicos.
A menudo les supera, como ocurrió en una competición organizada por Alibaba en 2019 que ganó con su equipo, llamado "sanchinarro" (un área residencial del distrito de Hortaleza, en Madrid).
Ese trabajo hace necesario contar con recursos de cálculo importantes, y aquí Andrés decidió montárselo por su cuenta.
Este emprendedor nos contaba en abril de 2021 cómo se había construido una bestia con seis RTX 3090 para investigar en inteligencia artificial. Habitual ponente en diversas conferencias en este ámbito, estos días publicaba un mensaje en X que hacía reflexionar.
En el mensaje mostraba una imagen tan falsa como inquietante: una hipotética captura del también hipotético ChatGPT 5 en el que habría dos versiones muy distintas: una, la europea, que cumplía la regulación, era transparente y eso sí, limitaba su funcionamiento a 40 menesajes cada tres horas. La otra, la versión de EEUU, con un entrenamiento extra basado en "conjuntos de datos propietarios para mejorar el rendimiento".
La situación es hipotética, pero plausible. En la nota de prensa que anuncia la preaprobación de la AI Act, la regulación que la UE ha preaprobado, se plantea una clasificación de sistemas de inteligencia artificial basada en los riesgos que cada una puede llegar a ofrecer.
El nivel al que pertenecen chatbots como ChatGPT se llama "riesgo de transparencia específica", y en ellos es importante cómo fueron entrenados. Ya en septiembre el Parlamento Europeo especificó que los sistemas de IA de propósito general (GPAI) como ChatGPT deben "cumplir con la ley de copyright de la UE y difundir resúmenes detallados sobre los contenidos utilizados para la formación".
¿Qué significaría eso? Pues precisamente que las empresas podrían entrenar sus modelos con conjuntos de datos de dominio público o aquellos de los que hubieran conseguido una licencia. En EEUU este requisito no existe de momento, y de hecho todas las empresas son opacas en cuanto a sus modelos de entrenamiento. Ni OpenAI ni Google dejan demasiado claro si han usado material protegido por derecho de autor aunque hay claros indicios de ello.
¿Qué pasará pues con plataformas como ChatGPT? ¿Habrá una versión para Europa y otra para fuera de Europa? No sería del todo descabellado: Meta acaba de anunciar lo que podríamos considerar como "Facebook para Europa", una versión de pago (9,99 euros al mes cuando se lanzó hace unos días) en la que los usuarios disfrutan de una experiencia sin anuncios pero que viene impuesta por la regulación europea en materia de protección de datos.
Lo mismo ha tenido que hacer con Instagram. Y hace casi ya dos décadas se produjo una situación similar cuando Microsoft se vio obligada a lanzar Windows XP N, una edición sin el reproductor multimedia para cumplir una sentencia de la UE de la época. El planteamiento de Andrés Torrubia parece por tanto, insistimos, plausible. Y aún así, es imposible saberlo a ciencia cierta en estos momentos porque el texto final de esta regulación no está disponible.
Lo único que tenemos es una nota de prensa, pero como explicaba Torrubia en su hilo en X, empresas europeas como Mistral, que acaban de lanzar sus nuevos modelos, tendrían que cumplir también con las reglas y de momento siguen la línea de OpenAI o Google: son opacos. Uno de sus cofundadores, Arthur Mensch, explicaba en Hugging Face cómo "desafortunadamente no podemos compartir detalles sobre el entrenamiento y los conjuntos de datos "extraídos de la web abierta) debido a la naturaleza altamente competitiva de este campo".
Andrés Torrubia dejaba claro que en Europa no teníamos (al menos, de momento) un problema regulatorio en este sentido. Los eurodiputados simplemente, explica, "quieren ser los primeros en regular. Buscan el efecto Bruselas". Para él las intenciones son buenas: "proteger los derechos fundamentales está muy bien", pero tiene serias dudas sobre las afirmaciones de Thierry Breton.
El burócrata afirmaba en esa nota de prensa que el acuerdo era "histórico" y que esta era "el principio de una nueva era en el desarrollo IA responsable e innovador, impulsando el crecimiento y la innovación para Europa". Para Torrubia ese es el problema, porque, "¿Cómo se va a hacer eso?".
No hay de momento detalles al respecto, pero como indica este experto sí se habla de los llamados "sandbox regulatorios", bancos de prueba que "facilitan la innovación responsable y el desarrollo de sistemas de IA que cumplen la normativa". Torrubia duda de la validez de esa idea:
"Si hicieras una regulación mundial, todo el mundo jugaría con las mismas reglas, pero el mejor sandbox regulatorio es el que sandbox regulatorio que no existe. Además, tienen plazos. ¿Se hubiera hecho el iPhone si hubiera un sandbox con unos plazos? ¿Se puede hacer innovación rellenando formularios?
Muchas de estas innovaciones no se pueden planificar, no son top-down, no se puede decidir en Europa “vamos a hacer un buscador”. Esto va de que dos chavales en Madrid o en Stanford o en cualquier otra parte se ponen a hacer algo. La innovación espontánea desde abajo no es compatible con un sandbox regulatorio".
Este experto y emprendedor iba más allá, y señalaba que el enfoque de la UE "no da ninguna ventaja". Proponía otro ejemplo. Si eres un inversor de capital riesgo y te fijas en una empresa que tiene que pasar por unos procesos burocráticos (UE) y otra que no (EEUU, China), "¿en qué empresa invertirías, en la que está sujeta a la burocracia, o la que no?", se preguntaba. Para él estos sandbox regulatorios son un lastre para la innovación.
"Me haces correr con un peso extra añadido, no sé si más o menos grande, pero al lado hay alguien que no tiene ese peso y que puede correr más que yo por eso. El talento es totalmente líquido y se va de un lado a otro, donde mejores condiciones haya.
En la UE hay condiciones extra. Y no suman".
Torrubia insistía en que no ve ventajas aquí para las empresas europeas. "¿Cómo hacen que generen más atractivo para los inversores? Yo no las veo, soy emprendedor y vivo en España". Aunque Europa ha lanzado innovaciones llamativas en el pasado —la World Wide Web nació en el CERN, por ejemplo—, estamos perdiendo oportunidades: "tenemos una base académica de primera línea a nivel mundial, pero no somos capaces de explotarla".
Aunque la regulación es loable de cara al ciudadano, según nuestro protagonista no lo es tanto de cara al emprendedor. "Las medidas en pro de los ciudadanos no son imcompatibles con la puesta en marcha de ventajas para empresas". ¿Cuáles? "No lo sé, no es mi trabajo. En Irlanda bajaron impuestos, por ejemplo", explicaba sin apuntar a que esa sea necesariamente la solución. Simplemente afirmaba que "no hay dicotomía, la regulación puede ser buena para ambos".
Además, aseguraba, "hay también un tema disuasorio: hay emprendedores a los que les da miedo el tema multas o las auditorías. La regulación te echa para atrás; si tienes un abogado y te cataloga el riesgo y no es tanto, igual lo intentas… pero encima tienes poco dinero en Europa para invertir. O lo inviertes en el producto o en un bufete de abogados que te analice todo para trabajar sin incumplir la regulación". Para él la conclusión es clara:
"En Europa vivimos de una herencia de hace 40 años, pero en el futuro, que es la innovación en tecnología informática, estamos fuera. Puede que en otros campos estemos bien, pero no en tecnología. Tu adversario a la hora de desarrollar tecnología debe ser el reto tecnológico, no la burocracia".
"Están poniendo el listón demasiado alto"
En Xataka también hemos tenido la oportunidad de hablar con Joaquín Cuenca Abela (@cuenca), toda una referencia en emprendimiento tecnológico en nuestro país. Tras cofundar Panoramio -que Google compró en 2007- acabó más recientemente cofundando otras empresas como BeSoccer o Freepik, empresa de la que es CEO.
Su implicación en el ámbito de la IA es importante: el equipo de IA de Freepik ha estado trabajando de forma frenética en los últimos meses para ofrecer sus propias soluciones en el ámbito de la IA generativa de imágenes, y hace tan solo unos días ya hablábamos de Pikaso, su espectacular nuevo modelo de generación de imágenes en tiempo (casi) real.
A Joaquín Cuenca, por tanto, el debate sobre la regulación de la Unión Europea le toca muy de cerca, y de primeras deja claro que este esfuerzo es la respuesta al temor que en la UE tienen a los posibles riesgos de la IA. "Entiendo el miedo", nos dice, pero como nos recuerda, cualquier nuevo gran avance tecnológico-científico provoca este tipo de preocupación.
"Cuando surgió la imprenta hubo también miedo. Imagina, los monjes se van a quedar en paro, la gente puede escribir lo que quieran, van a poder blasfemar, qué miedo", explicaba con cierta ironía. Para él la postura de la UE es demasiado restrictiva, porque es como si con la creación de la imprenta "todo el que haga cualquier imprenta nos tiene que demostrar que todo lo que se imprima tiene que asegurarse de que se ajusta a la fe católica".
Para Cuenca hay varios problemas claros con el enfoque de la UE. En primer lugar, que hay un problema práctico similar al de su analogía de la imprenta: ya entonces hubiera sido imposible controlar todo lo que se imprimía, y ahora ocurre lo mismo con la IA: controlar todo lo que produce es también una misión inabarcable.
Es una situación parecida a la que plantean la DMA y DSA, que sitúan a las Big Tech como responsables de lo que publican sus usuarios. Son las Meta y X del mundo las que deben moderar y censurar, o atenerse a las consecuencias. De hecho, explicaba Joaquín Cuenca:
"Se le están pidiendo a la IA cosas que no se le piden a sistemas no IA. Por ejemplo, que no tenga sesgos. ¿Y la persona que te concede un préstamo, ¿no tiene sesgos? La realidad es que te vistes bien para pedir un préstamo. Con la IA hay sesgis, pero se pueden medir, se pueden cotejar, se pueden tratar de evitar. De hecho, estos modelos son exquisitamente más neutros con lo que son las personas, pero si me pides matemáticamente 100% sin sesgo… no se puede. Es peor el remedio que la enfermedad. Me estás poniendo el listón demasiado alto".
Cuenca nos recordaba que cualquier herramienta acaba teniendo riesgos. "El fuego es potencialmente peligroso, pero tiene muchos usos muy válidos. Internet, la informática, todas estas herramientas se pueden usar también para hacer cosas malas".
De hecho, explica, "pretender detener el desarrollo es algo que nunca se ha conseguido, pero además lo están intentando en un espacio local". Cuenca destaca cómo la tecnología de inteligencia artificial está aún "en pañales" y no hay indicios claros de que los peligros vayan a ser o no relevantes. Los requisitos para los sistemas no críticos, afirma, son además "muy onerosos":
"Como lo de preguntar de dónde salen todas las imágenes. A ninguna industria se le piden detalles de cómo has desarrollado algo para que otros lo puedan calcar. Si tiene usted dudas de que lo que he usado, hágame una inspección, pero no me pida que lo haga público".
La visión de Joaquín Cuenca con este proyecto normativo es crítica. "Es una regulación draconiana en Europa, y vamos a peor El número de empresas de tecnología es mucho menor: somos segundos por la cola después de África y a no mucha distancia". El dato no es aleatorio: proviene de un estudio de 2020 de SOMO, una organización que investiga a multinacionales y que emitía un informe revelador sobre las diferencias en el ámbito tecnológico entre los distintos continentes. Uno de los gráficos del estudio -al que alude Cuenca- es ciertamente revelador.
De hecho, asegura Cuenca, "todo el impacto de la IA ha sido positivo" y pone otro ejemplo relativamente reciente de cómo la regulación no ayuda, sino que empeora las cosas. "Pasó con la ley de cookies. Desde el punto de vista de la interfaz, eso no funciona, sino que molesta. El usuario que quiere leer una noticia y ve el aviso sobre cookies le va a dar al primer botón que pueda para quiar eso y poder leer".
Es un ejemplo que según él demuestra que "llegan a soluciones que parecen escritas por abogados que no tienen ni dea de cómo van a impactar en la experiencia". Las medidas para él son por tanto "precipitadas".
¿La regulación como freno a la innovación? Macron advierte del peligro
Desde que comenzaran los esfuerzos para regular la inteligencia artificial, había dos visiones. La primera, la de que la regulación era necesaria para evitar riesgos. La segunda, la de que esa regulación podría comprometer la innovación.
¿Lo hace? ¿Frena la regulación la capacidad innovadora? La cuestión es delicada y plantea diversas problemáticas: aunque protege a los consumidores y garantiza un mercado más justo a nivel de competencia, puede también añadir costes y burocracia innecesaria y reducir la experimentación y la toma de riesgos.
No hay estudios definitivos al respecto, pero desde luego sí hay hechos que parecen apuntar a que el impacto de la regulación sobre la innovación es notable. En Financial Times publicaban recientemente un informe sobre cómo la "brecha transatlántica" seguirá creciendo en los próximos años y haciendo que EEUU crezca económicamente más que Europa.
Según los economistas y analistas citados en el informe, esa brecha se alimenta especialmente de las diferencias en el panorama tecnológico:
"EEUU tiene un sector tecnológico en auge con empresas de éxito e innovadoras como Amazon, Alphabet y Microsoft que no tienen equivalentes europeos en Europa. Con Estados Unidos dominando la inteligencia artificial, es probable que esa brecha se amplíe, advierten los economistas".
Por contra, en Europa la industria especializada se centra en ámbitos cada vez más amenazados por la industria china, como sucede con los coches eléctricos. La brecha también existe en el ámbito de la inversión, y la tendencia favorece especialmente a Estados Unidos, que de hecho ha vivido una fiebre inversora con el auge de la IA.
También es importante contextualizar el crecimiento económico de Estados Unidos, que en los últimos años ha sido especialmente fuerte y no solo puede atribuirse al segmento tecnológico. A esa brecha no le ayuda el hecho de que Europa lleva cierto tiempo con un estancamiento económico notable.
En esa línea crítica están las posiciones de Andrés Torrubia y Joaquín Cuenca Abela, pero además se nutre de otros datos como el análisis de los "unicornios" (empresas con una valoración superior a los 1.000 millones de dólares) en cada continente. Aunque algunos informes apuntan a una buena tendencia en Europa, otros dejan claro que Estados Unidos es, hoy por hoy, el "centro mundial de la innovación".
Los datos de Pitchbook, una empresa de analítica de datos financieros, parecen confirmar esa realidad. Así lo mostraba la cuenta de X Science is Strategic en un revelador hilo con varios gráficos de esa consultora. Con todo y con eso, nadie puede estar seguro de cómo evolucionarán ni la economía en general ni la relativa al sector tecnológico en particular. Las opiniones que hemos aportado desde luego apuntan a un futuro difícil para Europa, pero las cosas pueden acabar siendo diferentes.
Mientras, la AI Act de la Unión Europea ya está generando importantes dudas entre los estados miembros. Emmanuel Macron, presidente de Francia, indicaba el pasado lunes cómo "podemos decidir regular mucho más rápido y de forma más fuerte que nuestros principales competidores. Pero regularemos cosas que ya no produciremos ni inventaremos. Esto nunca es una buena idea".
El propio mandatario galo dejaba claro que aunque Francia es ahora mismo un referente europeo en innovación en IA gracias a Mistral AI, "estamos todos muy lejos de los chinos y los americanos".
Esos comentarios plantean un camino difícil para la AI Act: tanto Francia como Alemania e Italia están según Financial Times debatiendo sobre buscar alternativas o incluso evitar que las leyes acaben siendo definitivamente aprobadas a pesar del importante consenso que se anunció el pasado viernes.
La situación es por tanto compleja. Tanto, que el Sr. Breton quizás esté pensando si debería o no haber publicado aquel mensaje sacando pecho. Quién sabe.
Imagen | Xataka con Bing Image Creator
En Xataka | Meta, IBM y otras forman The AI Alliance. Su objetivo: defender el desarrollo de modelos de IA Open Source
Ver todos los comentarios en https://www.xataka.com
VER 12 Comentarios