El primer borrador era tan infumable que se llegó a decir que la IA era el quinto elemento tras el agua, la tierra, el fuego y el aire. Afortunadamente, tras más de 18 meses de trabajo, desde el Parlamento Europeo se ha llegado a una postura sobre Inteligencia Artificial que la mayoría define como "seria y equilibrada". Un documento de más de 70 páginas que ha recibido el apoyo de los principales grupos políticos en Europa y supone la primera piedra para el gran reto de regular la IA.
Hemos hablado con los tres eurodiputados españoles miembros de la comisión AIDA para entender cuál es la visión que tiene Europa sobre Inteligencia Artificial. Porque pese a que el texto aprobado es el mismo, el debate sobre esta tecnología tiene muchas aristas, sigue abierto y es lo que marcará la futura AI Act. Estas son las reflexiones sobre Inteligencia Artificial de Pilar del Castillo (PPE), Ibán García (S&D) y Susana Solís (Renew).
Por qué Europa le da ahora importancia a la Inteligencia Artificial
"Llevamos muchas décadas con esta tecnología. Pero lo que sí es nuevo es la implantación masiva en todos los procesos. Si no la regulamos, muchas cuestiones generarán una serie de riesgos y, en algunos casos, lamentablemente unas consecuencias. Teniendo en cuenta la potencia intrínseca que tiene esta tecnología, ya es hora de que Europa vaya junta", responde Ibán García, eurodiputado socialista y miembro de la Comisión de Asuntos Jurídicos.
"Todo aquello que permita que la IA se aplique en unas condiciones de garantía y no afecte a derechos fundamentales nos interesa a todos", apunta Pilar del Castillo, eurodiputada popular copresidenta del Intergrupo parlamentario de Inteligencia Artificial y ex-ministra de Educación, Cultura y Deporte.
Para Susana Solís, eurodiputada liberal, ingeniera y miembro de los intergrupos de Industria Europea, Pymes, IA y Política Digital: "este informe es una hoja de ruta; un toque de atención. Un aviso de que Europa se está quedando atrás pero que todavía estamos a tiempo". Pese a partir de una posición desfavorable, los distintos eurodiputados son optimistas y defienden que "se ha hecho más en dos años de lo que se hizo la última década". Y como ejemplo, Solís pone el RGPD: "el Reglamento de Protección de Datos tardó 7 años. Ahora tenemos mucha más experiencia y se está haciendo todo más rápido".
La respuesta de los eurodiputados ante si es realmente necesario una ley específica es unánime, pese a que recuerdan que todavía faltan flecos para definirla. "El Parlamento ahora tiene un informe comprensivo desde distintos ángulos donde se abordan las oportunidades y los riesgos. El marco regulatorio, que será la AI Act, es lo que se está discutiendo ahora", explica Pilar. Desde la Comisión hicieron una propuesta de ley, ahora el Parlamento Europeo (elegido por los ciudadanos) ha votado cuáles deben ser las líneas maestras y las líneas rojas.
La estrategia para rivalizar con EE.UU y China
Actualmente la inversión público-privada de la Unión Europea en IA se sitúa alrededor de unos 12-14.000 millones de euros anuales. "Se creen necesarios entre 20 y 25.000 millones de euros para poder ser campeones en IA aquí. Es una cifra que nos mantendría en la carrera, pero la distancia es grande", apunta Susana. "Para hablar de tú a tú con EEUU y China necesitamos tener un Mercado Único Digital y ahora mismo no lo tenemos".
"La IA se nutre de datos, pero luego hay otras cuestiones. Los supercomputadores y los servicios en la nube, de los que todavía no hay ninguno europeo. Hay proyectos como el Gaia-X, pero ahí estamos retrasados claramente. Europa carece de esa infraestructura y es lo que se está abordando por primera vez con Horizonte Europa y el programa Europa Digital, con un presupuesto de 7.000 millones de euros. Entre otras cosas para poder conseguir estos supercomputadores y esta infraestructura necesaria para investigar en IA", comenta Pilar.
"Yo creo que desde las instituciones se han dado pasos importantes, porque hasta hace poco no había nada definido. En los países hay una consciencia cada vez mayor, pero creo que hay que hacer esfuerzos mayores y muy focalizados. En infraestructuras hay un deficit claro, pero si lo comparamos con hace 5 años, esta discusión ni la habríamos tenido", resume Pilar sobre lo mucho que ha cambiado el panorama.
Hace unos pocos años la situación era completamente distinta, con una inversión que no alcanzaba ni la mitad. En estos años, Europa ha entendido que debe dar un importante giro, pero también son bastante conscientes. "Ni aún así estaremos en el nivel de China", avisa Ibán.
La realidad es dura. Solo 8 de las 100 mayores empresas en IA es europea. Pero la situación en el ámbito privado es tan preocupante que ninguno de los tres eurodiputados pudo decirme al vuelo una empresa europea líder en inteligencia artificial.
"Europa tiene algunos elementos diferenciadores que quizás ayuden. Primero nuestra red de universidades y luego lo que se conoce como 'Efecto Bruselas', que ya vimos con el RGPD. Prevemos que el mercado acabará pareciéndose bastante al nuestro, con nuestras obligaciones desde el punto de vista ético", sigue Ibán. "Por mucho que algunos amenacen, no van a abandonar la Unión Europea. Somos un mercado de 500 millones de personas. Abandonarlo por no adaptarse a unas normas mínimas no les vale la pena".
La intención es avanzar hacia una estandarización básica de la IA a nivel mundial, algo en línea con lo defendido por la OCDE y la UNESCO. "Su propuesta va en un sentido similar", dice Ibán. "Respira mucho nuestra cultura, que puede ser la base de una convención internacional de la IA. Si EEUU quiere aplicar una determinada tecnología, deberá respetar una serie de normas como explicar de dónde han salido los datos o cómo funciona la IA. Aspiramos a que al final incluso China nos explique cómo funcionan sus algoritmos y sus empresas que quieran estar en Europa se adapten a las normas".
Ibán explica algunos de los contactos entre Europa y el resto de potencias. Con Think Tanks en Washington e incluso puntualmente con China, interesados en ver qué necesitarían sus empresas para adaptarse a Europa. De hecho, Ibán apunta que "de momento en EEUU no tienen nada y China sí ha hecho regulación. Pero la idea no es competir contra estos países, sino competir juntos".
Para atraer talento, establecer una legislación clara se considera un punto positivo. "Lo hemos hecho con Protección de Datos. Si lo hacemos bien, y esto es que no frene la innovación, yo creo que Europa puede marcar los estándares en IA. En EEUU de momento no están haciendo nada más allá de permitir", expone Susana.
"Europa ha tenido bastante incidencia. En EEUU parten de una cultura política distinta. Sistemas que se han ido construyendo de otra manera", expone Pilar. "Hay que encontrar una convergencia. Espacios comunes. Estados Unidos no es tan garantista, pero no cabe duda de que hay que buscar puentes de conexión porque compartimos muchos valores. Es un competidor, pero también alguien con quien tenemos muchas posibilidades de una relación beneficiosa".
Ser ágiles vs proteger derechos: cómo se ha alcanzado este equilibrio
Regular la IA es un reto por la propia definición de esta. "Hablamos de una tecnología capaz de automodificarse e ir incrementando su potencia y eficacia por sí misma", expone Ibán. Aún así, los eurodiputados están contentos de haber llegado a un punto de equilibrio. Un texto que por un lado fomente los usos de la IA y por otro remarque los riesgos de determinados usos.
"De verdad que el texto es equilibrado. Todavía queda mucho por delante y se va a dirimir en la AI Act. Hay muchas cuestiones donde todavía hay distancia, pero hemos tenido más de 1.000 enmiendas y hemos alcanzado un compromiso entre todos. Una reforma enorme. Nada que ver con el borrador inicial donde se hablaba de los cinco elementos de la tierra", explica irónico Ibán.
La crítica desde el lado socialista es que el borrador inicial presentado por Axel Voss no daba suficiente importancia a los riesgos y la afectación a los derechos fundamentales que puede tener la IA. Así lo explica: "estaba muy centrado en cuestiones de geopolítica e incluso se infería un conflicto con Protección de Datos".
"La posición mayoritaria ha quedado reflejada también en las votaciones, con 495 votos a favor, 102 abstenciones y solo 34 votos en contra", resume Pilar. "Han habido conversaciones con muchos sectores. Agricultura, transporte, etc. Yo creo que todos ellos son sectores en los que la IA tiene un papel con beneficios claros. Pensemos en salud con el tratamiento a distancia o la agricultura, que cambia completamente con posibilidad de tener mejores productos y más sostenibles", reflexiona Pilar sobre los efectos positivos.
"El enfoque del riesgo es lo que nos permite afrontar en la práctica lo que nos preocupa. Es el mismo enfoque que adoptó el Parlamento Europeo sobre Ética en la IA", dice Ibán. El informe repasa 6 casos donde la IA puede tener un papel delicado: salud, eficiencia energética, política exterior, competitividad, mercado laboral y futuro de la democracia.
Los ejemplos se cuentan por docenas: desde algoritmos que discriminan por sexo o raza a la hora de seleccionar candidatos para entrevistas hasta algoritmos que pudieran afectar a los pacientes. Pero también casos más extremos como algoritmos que te obligan a sonreír en el trabajo o algoritmos que ofrecen las mejores plazas de parking a quienes tienen un coche mejor.
La propuesta de la Comisión Europea es establecer cuatro niveles de riesgo, con obligaciones asociadas en función de cada nivel. En el caso del informe del Parlamento, algunas ideas han quedado reflejadas mientras que otras demandas han quedado sin el apoyo suficiente.
La intervención humana tiene un papel destacado, pero hay debate alrededor de cómo se implementará. "Está todavía sin plantearse cómo se harán estas auditorías. De la AI Act se podría llegar a la conclusión que privatiza el sistema. Se han planteado organismo, una agencia y un organismo coordinador a nivel europeo, pero para mí es insuficiente". En una línea similar explica Susana que "no está claro cómo funcionará el supervisor europeo para que no haya 27 interpretaciones distintas para cada país".
"El equilibrio es lo más difícil cuando hay tantos comités legislando", apunta Susana. "Uno de los puntos donde se verá esta disyuntiva será en la definición de Inteligencia Artificial". Otro de los puntos es a la hora de definir qué se consideran sistemas de alto riesgo. "El 80% de las IAs no son de alto riesgo. Ahí es donde no tenemos que poner demasiadas trabas". Y Susana nos explica una problemática relacionada con una de las comisiones a las que pertenece. "El tema de certificar los algoritmos verdes. Me encantaría, pero no tenemos herramientas como tal. Podemos exigir declaraciones de uso responsable de la energía o que se utilice el algoritmo más eficiente, pero no estamos preparados para colocar una etiqueta de algoritmo verde. No tenemos que legislar más allá de lo necesario".
Quién decidirá en qué nivel va cada uso de la IA está por ver. "Estará definido por una serie de sectores, pero se tendrá que ver en la versión final de la AI Act. Se espera que sea una lista que se actualice cada poco tiempo. Luego habrá que ver que no haya duplicidades. Por ejemplo, en salud algunos instrumentos ya se regulan por la Ley de dispositivos Médicos. En los de alto riesgo, habrá que evitar crear duplicidades para no entrar en conflicto con otras leyes".
"Hay muchos temas a contemplar", prosigue Susana. "No es lo mismo para Finlandia que para España, con sus comunidades autónomas. En un país descentralizado como el nuestro; ¿Cómo vas a crear un órgano central que maneje toda esa cantidad de datos? ¿Qué incentivos damos a los hospitales para que alimenten la base de datos? En un país centralizado es más fácil de auditar".
"Otro asunto es que por ejemplo la AI Act no contempla todavía la distinción entre user y end-user, por ejemplo entre médico y paciente", apunta Susana, en relación a que el riesgo de las IA no es el mismo para unos y para otros. El hospital, en este ejemplo, sería el responsable, pero la descripción del sistema de IA tendría un enfoque diferente para cada uno.
El gran debate: qué hacer con la identificación biométrica
Fue la enmienda más ajustada en la votación, aunque finalmente no salió adelante. El Parlamento Europeo finalmente optó por la no prohibición de los sistemas de identificación biométrica, pero hay una corriente muy potente que aboga por ello. Ibán reconoce que dentro de su grupo hay opiniones distintas y así se reflejó en el voto. En su caso expresa que "no soy favorable de la prohibición perse de ninguna tecnología", una postura también compartida por Pilar y Susana.
"El reconocimiento facial tiene muchos usos. La Comisión ya clasifica algunos como inaceptables. Por ejemplo que no se puede aplicar IA para reconocimientos biométricos en tiempo real en zonas públicas. Ahí ya se contempla la prohibición", explica Pilar. "Todavía estamos en una fase muy temprana y se está negociando qué excepciones habrá en la regulación. Pero ya se habla de que no esté permitido salvo en casos en los que haya autorización judicial y se use por razones de peligro inminente".
La posición de Renew es equivalente. "Los sistemas de 'Social Scoring' o los de vigilancia masiva en tiempo real deben estar prohibidos en sitios públicos. Excepto en determinados casos donde haya una orden judicial acotada en el tiempo o para perseguir un atentado terrorista", expone Susana. "En la versión final de la AI Act creo que va a haber muy pocas excepciones donde esté autorizado."
Este asunto es quizás el más claro para visualizar el debate entre los eurodiputados más propensos a regular y quienes abogan por establecer una prohibición directa. Sociedades en defensa de los derechos digitales como EDRi abogaban por una prohibición directa, pero se ha optado por no incluir.
"Hay quien habla de una mera orden ejecutiva de cuando es una situación de emergencia y hay quien aboga porque no se utilice en ninguna circunstancia", responde Ibán, describiendo de que el enfoque de las excepciones antes que la prohibición general permite definir mejor bajo qué condiciones se utilizará y así "eliminar cualquier otra posibilidad".
Para los grupos que abogan por la prohibición, el Parlamento Europeo no ha sido suficiente valiente. De igual manera, el texto no recoge una prohibición directa de los sistemas autónomos letales con IA. Sí hay una recomendación de su regulación, pero se deja la puerta abierta a que la AI Act no regule el uso militar la IA.
Pilar resume de manera sencilla por qué el Parlamento Europeo no se ha posicionado sobre las armas autónomas con IA: "no habría consenso".
"La IA en el sector militar ya se está utilizando, la cosa es ver dónde y cómo se está utilizando", explica Susana. Respecto al sector militar, la eurodiputada liberal apunta que "muchos sectores querían excluirse. En el caso del militar yo creo que sí debe quedar fuera, en cuanto a sus características por la defensa y soberanía de la UE. En determinados sectores tenemos que poner por delante nuestros valores europeos. Lo hemos visto con la energía. Aquí igual. Nuestra gran fortaleza son nuestros valores, nuestra gran ventaja es hacerlo diferente. ¿Podemos quedarnos atrás en la carrera armamentística? Es posible, pero ante todo tenemos que hacerlo con nuestros valores. De ahí podemos construir una industria fuerte."
¿Incluso las pequeñas empresas deberán explicar cómo funcionan sus algoritmos?
El debate gira sobre que la trazabilidad y la explicabilidad de los algoritmos, pero "luego a la práctica es mucho más difícil de llevar a cabo", reconoce Ibán. "Un desarrollador te dirá que ni siquiera ellos saben cómo se ha llegado ahí". Ante el desafío técnico que supone para una pequeña empresa explicar cómo funcionan todos los algoritmos que usan, el eurodiputado socialista explica que "no vamos a exigir lo que no se puede", pero sí puntualiza que "no podemos rebajar ni un gramo las exigencias, porque hablamos de cumplimiento de derechos fundamentales".
La solución que plantean es auditorías de cara a las instituciones, multas para quienes no realicen las exigencias en función de los ingresos y una Agencia de Inteligencia Artificial potente, con capacidad para dar asistencia a pequeñas y medianas empresas. "Con la excusa de que se gasta más en una nueva institución, algunos plantean que no hace falta. Pero si un algoritmo puede generar una discriminación y me afecta como ciudadano, no me importa si lo hace Google o quien sea. La protección debe ser la misma", expresa Ibán.
Pilar tiene una posición distinta y aboga por ciertas exenciones: "hay que prestar atención a las pequeñas empresas, con diferentes requisitos. Lograr que no tengan esa carga adicional de cumplimiento".
"Tenemos que hacerlo para que a las pequeñas no les crees demasiada burocracia", opina Susana, quien describe que para las grandes empresas la explicabilidad de los algoritmos no supone un reto tan grande, ya que muchas de ellas llevan un control bastante exhaustivo. "No significa que se vaya a pedir el código exacto, sino explicar cómo funciona el algoritmo y con qué datos se ha alimentado".
Uno de los ejemplos es el algoritmo de aplicaciones como el reparto de comida a domicilio. Estos algoritmos pueden suponer una discriminación o un problema para riders. Con la futura legislación, estos trabajadores deberán poder conocer qué factores se les está teniendo en cuenta, sea por ejemplo el tiempo de entrega, su disponibilidad, la metereología con la que trabajaron o el feedback de los usuarios.
En este sentido, España es uno de los países pioneros en exigir más transparencia con los algoritmos en casos como este, pues la "Ley Rider" ya incluye este precepto. La AI Act supondría la expansión de esta transparencia a más sectores y mejor reglamentada. Susana recuerda además que más allá de la Estrategia sobre IA, España se ha presentado como país piloto para ver cómo se podrían certificar estos algoritmos.
En el Parlamento Europeo, las reuniones de los políticos con los distintos lobbys están bastante controladas. Reconocen que han habido muchos contactos porque prácticamente todos los sectores se sienten afectados. "La legislación que más les va a afectar es la DSA/DMA, pero también hay interés por esta legislación sobre IA", apunta Susana.
"Hay quien cree que nos quedamos cortos y otros que todo vale. En el caso de las Big Tech hay de todo, hay hasta quien planteaba un régimen muy estricto, pero todo tiene truco, porque cuando las grandes plantean un régimen estricto lo que plantean en la práctica es una legislación que impida el surgimiento de nuevos competidores, ya que no podrían llevar a cabo todas las normas que hipotéticamente se podrían poner sobre la IA", explica Ibán.
Los derechos de autor para la IA se han dejado de lado
Si hablamos de Inteligencia Artificial, uno de los últimos proyectos que más nos ha sorprendido es DALL-E 2, con sus alucinantes creaciones. Preguntando a los distintos eurodiputados sobre Propiedad Intelectual y derechos de autor, nos responden que ese tema no se ha tratado por el momento en el Parlamento Europeo.
"Hay debates con repensar los derechos de autor, pero no está solucionado. Hay dudas sobre hasta qué grado de intervención de la IA se tendría en cuenta, qué grado de utilización es permisible y sobre quién recaerían los derechos; si el programador, los usuarios o la empresa...", reflexiona Ibán.
"Es un campo abierto. Por el momento se sigue rigiendo el marco de la Directiva de la Unión Europea sobre derecho de autor", expresa Pilar.
"El informe del Parlamento es una hoja de ruta. Todavía no hay nada, pero deberíamos revisarlo. La IA va a abrir muchos frentes", describe Susana, quien nos pone como ejemplo los NFTs y cómo dentro de los llamados metaversos se pueden vender y/o replicar objetos digitales de marcas reconocidas.
Por el momento, Europa no ha abierto el melón del copyright y la IA, aunque desde la Oficina de Propiedad Intelectual de la Unión Europea (EUIPO) ya es uno de los temas más debatidos.
A partir de 2023 los ciudadanos deberemos saber si es una IA quien está al mando
El marco mental es tener una regulación para la IA que dure al menos hasta 2030, pese a todos reconocen que esta tecnología evoluciona a una velocidad vertiginosa y va a ser muy difícil pensar cuáles van a ser las necesidades asociadas.
Una vez el Parlamento Europeo ha fijado cuáles deben ser las líneas maestras (no prohibición, riesgos en sectores como salud o trabajo, impulso de la inversión en IA...), es tiempo de que las distintas comisiones sigan trabajando para definir la AI Act, lo que será el texto legal. De cara a otoño el Parlamento debería votar de nuevo esta regulación, con la vista puesta a principios de 2023 para la aprobación definitiva.
Como con la DSA y la DMA, la idea es que la AI Act sea un Reglamento. Esto es, que será de aplicación directa a partir de un periodo fijado (habitualmente entre uno y dos años) y por tanto no será necesaria transposición en cada país. Con esto se busca que además no haya demasiada casuística en cada país que pudiera generar conflictos añadidos.
"Los ciudadanos deben entender que la IA es algo del ahora", sentencia Susana. "Debemos saber que cuando vamos a una entrevista de trabajo o pedimos cita para una operación, la primera selección puede ser un algoritmo. Como ciudadano quiero saber si quien ha tomado una decisión ha sido un algoritmo y si ha tenido consecuencias negativas".
Ver todos los comentarios en https://www.xataka.com
VER 11 Comentarios