Ya conocemos el texto de la nueva regulación europea sobre inteligencia artificial. Una AI Act que pretende que todos los desarrollos sobre IA cumplan una serie de reglas. Sin embargo, además de a las grandes empresas de software, esta regulación también afectará a un grupo mucho más concreto: los desarrolladores de código abierto.
Sin excepción para el open source. Los desarrolladores deberán registrar sus modelos que entren dentro de la categoría de alto riesgo. Y en la ley no se contempla excepción para los modelos open source que se engloben dentro de distribuidores. Estos últimos tendrán responsabilidad legal.
El ejemplo más directo es Github. Serán ellos (y Microsoft) los responsables legales de los posibles desarrollos sobre IA de sus usuarios. Y en caso de no cumplirse con la nueva normativa en estos desarrollos, la Unión Europea podría multarles con sanciones millonarias.
Un misil contra el movimiento. Así lo describe Andrés Miguel Torrubia, cofundador del Instituto de Inteligencia Artificial. En opinión del experto, la nueva regulación de IA en Europa "favorece a los grandes" y es un "misil a los movimientos open source".
Torrubia ve la regulación como un plan "disuasorio" ya que aunque estos modelos se distribuyan en abierto, no les exime de pasar todo el costoso proceso de certificación y exponerse a posibles multas millonarias en caso de no cumplir con la normativa.

En la IA, tener un cultivo de innovación cobra más relevancia que nunca. El debate no es nuevo. En la espiral regulatoria hay quienes defienden el establecer reglas estrictas para todos y hay quienes alertan de que establecer demasiados normas puede limitar la libertad creativa y la innovación.
En un sector como el de la inteligencia artificial, donde las novedades surgen cada día a una velocidad pasmosa, mantener un ecosistema pro-innovación parece imprescindible para no quedarse atrás. Así lo cree Torrubia que define que "tenemos un regulación que se está intentando anticipar a algo en lo que ni los que estamos metidos nos podemos anticipar".
Desarrollos bloqueados desde Europa (a modo preventivo). Ya lo hemos visto con Google Bard, que está disponible en 180 países pero ninguno de ellos es europeo. Siguiendo el texto de la nueva regulación y su posición sobre los desarrollos open source, se podría dar el caso de que Microsoft decidiera dejar sin acceso a ciertos proyectos libres en Europa en Github.
Ante el riesgo de que esos desarrollos no cumplan la normativa, directamente los bloquean para evitarse problemas.
La estrategia europea: hacer responsable a las BigTech del trabajo del resto. No es difícil anticipar la importancia que tiene que haber tenido el hecho de que Github pertenezca a Microsoft. En esta ocasión tenemos algo similar a lo que ocurre con las redes sociales, donde se hace que las grandes tecnológicas sean las responsables de lo que se publica.
De manera equivalente a como esta decisión puede acabar en censura por parte de Twitter, Youtube, Facebook o quién sea, con la regulación de la IA puede acabar en una deriva anti-innovación, donde en caso de duda, directamente se opte por bloquear ese proyecto open source.
Es un nivel de exigencia que tiene como parte buena que lo que llega sea adecuado, pero que puede acabar bloqueando "justos por pecadores". Europa parece dispuesta a que la IA no avance tan rápido. Aunque eso signifique quedarse sin acceso a lo último.
Imagen | Xataka con Midjourney
En Xataka | Aleph Alpha es la empresa europea más avanzada en IA. Y lo tiene todo para convertirse en nuestro OpenAI
Ver 30 comentarios
30 comentarios
xperia10
Y luego nos quejamos de que Estados Unidos sea la potencia mundial dominante... Si es que se lo ponemos en bandeja!
Ala, aquí seguiremos en nuestra cueva bien protegidos.
Usuario desactivado
Pues en este tema... Estoy con Europa y me parece imprudente lo del resto de países.
La IA tiene potencial enorme para lo bueno... Y para lo malo. Se puede convertir rapidamente en un sistema de vigilancia masivo como en China, o en un hacker con conocimientos prácticamente ilimitados.
Es una tecnología que hay que tener bien "domesticada" y controlada.
daniel3241
Lo he dicho en anteriores veces y lo volveré a decir, en Europa solo saben regular y en otras ocasiones prohibir, en vez de fomentar que se desarrolle un IA que pueda competir de tu a tu con las IAs que salen en EEUU ó en China, lo único que saben hacer estos burócratas de Bruselas es poner puertas al campo.
marededeusenyor
Aceptar cookies una a una porque no somos capaces de configurar nuestro navegador, USB-C y que inventen ellos, IA prohibida y que sigan inventando ellos.... Y nos quejábamos de España, pero si son peores estos.
pableras
No, esto ya es híperregular. Si seguimos así para tirarte un cuesco tendrás que empollarte la legislación vigente y rellenar las solicitudes oportunas. Si no lo haces, sanción, por supuesto.
jesus.aragon.argos
¿La IA es peligrosa? Sí... Pero también es una maravilla. ¿Se va a poder parar la IA? NO.
Europa con tanta regulación va de cabeza a ser un "segundo mundo*.
La verdad que no lo entiendo. ¿Por qué los europolíticos quieren que dependamos en TODO de terceros países? Energía, comida, tecnología... No lo entiendo. En tecnología China, Corea o India nos superan con creces 🤦♂️🤦♂️🤦♂️
Mr. Dick
Europa intentando matar el open source.
kevinbraiankevin
politicos como siempre arruinando todo
leivatf
Me parece lo normal ¿Por qué debería ser el código abierto una excepción? Bien (esta vez) por Europa
Trocotronic
Pero tiene truco.
yuri_primero
Para cuando los burócratas finalicen la certificación de un código ya lo puedes tirar a la basura por quedarse obsoleto.
carlosyagami
Si Europa pone trabas al desarrollo de IA y proyectos open source solo van a lograr ahuyentar a los desarrolladores y quedar en la cola del avance mundial
gabi92
La gente tiene un miedo profundo al progreso
alexkult
Yo creo que el peligro son estos politicos ignorantes...es como si en la revolucion industrial no hubieran permitido fabricar maquinas...y todo porque las ias nos van a facilitar el trabajo o directamente sustituir los puestos mas repetitivos y monótonos, tendremos mas tiempo libre, podremos pensar mas y estaremos menos controlados. Lo que tienen es que ir bajando las jornadas laborales a 4 dias 5 horas/dia y si hace falta menos pues menos y trabajo para todos y dejarse de regular cosas que como bien dice el articulos ni los que estamos dentro sabemos donde va a terminar...tanto disparara todo sin objetivo.
profetadelinvierno
Europa tiene razon en regular la IA, quienes lo estan haciendo mal son especialmente EEUU, que con tal de ponerse en una posicion dominante de mercado, estan de acuerdo con arriesgar la seguridad y la economia propia y las ajenas tambien. El problema de Europa es que se esta regulando desde el paradigma clasico europeo, que es imponer unas normativas que implican elevadisimos costes para los proyectos y productos. Eso significa que unicamente habra un puñado de empresas gigantescas, habitualmente de EEUU, que tengan el poderio economico como para poder financiar esos costes regulatorios.
Muchos diran que nos quedamos atras por cerrarnos a esos proyectos de EEUU, pero la realidad es que China o Rusia tambien se cierran, y Japon o Corea del Sur suelen optar por modelos propios alejados de los mayoritarios en Occidente. Lo que a menudo ocurre en Europa es que nos dejamos caer en manos de empresas de EEUU, no por la falta de regulacion, sino precisamente por ser excesivamente laxos con estas empresas extranjeras para operar en Europa, incumpliendo aspectos como la proteccion de datos, la privacidad, los criterios de seguridad, etc. En Europa tampoco permitimos el uso de transgenicos o la ingenieria genetica en humanos, tampoco permitimos el uso de pesticidas legales en la mayor parte del mundo, y ello no nos convierte en "atrasados" tecnologicos, sino en unas sociedades mas seguras y con un crecimiento equilibrado.
En resumen, nuestro problema es el permisivismo con actores extranjeros que no se adaptan a nuestras normas, y unas regulaciones que a menudo implican costes inasumibles para pymes.