El G7 ya tiene acuerdo sobre la inteligencia artificial. Y no ha sido fácil llegar hasta él. En juego está el cómo regular una tecnología que está llamada a cambiarlo todo. Y había varias visiones antagónicas. Por un lado la de Estados Unidos, favorable a no poner trabas en su desarrollo, y por otro lado el de países como Francia o Alemania, que comparten la visión europeísta de regular la IA de una manera más estricta.
Se impone la tercera vía. Fue en mayo cuando Japón propuso la creación del 'Proceso de Hiroshima sobre IA'. Un foro intergubernamental con el objetivo de discutir cómo regular la IA y acercarse a la creación de estándares internacionales para una IA "digna de confianza".
Este proceso ha sido la tercera vía que finalmente ha ganado. Entre la disyuntiva de Europa contra Estados Unidos, Japón se ha presentado como un punto intermedio. El gobierno japonés propuso una regulación más laxa, pero suficiente concreta como para abordar los problemas del copyright o la exposición de datos personales. Y este baremo ha sido el que los líderes del G7 han aceptado hoy en un acuerdo que ya es oficial.
"Código de Conducta para la IA". El acuerdo del G7 pasa por establecer un código de conducta para los desarrolladores de la inteligencia artificial. Está compuesto de una serie de ideas que todas las empresas y desarrolladores de IA deberían seguir.
Entre las reglas definidas están algunas de las siguientes:
- Antes y durante su despliegue: identificar, evaluar y mitigar los riesgos.
- Mitigar vulnerabilidades y patrones de uso indebido.
- Transparencia sobre las limitaciones y/o uso inapropiado.
- Compartir información de manera responsable con otras organizaciones.
- Implementar medidas para proteger datos personales y la propiedad intelectual.
Manos a la obra. El G7 afirma que la IA tiene un potencial "innovador y transformador" pero también apunta que se deben "proteger a los individuos y la sociedad". Para establecer este código de conducta, se ha creado una hoja de ruta en la que se apoyarán con distintos organismos internacionales como la Alianza Global sobre IA y con la OCDE.
Además del G7, también se espera que otros países, entre ellos España, participan y ayudan a impulsar estas reglas.
No es tan exhaustivo como la AI Act, pero va en la misma dirección. Desde Europa se ha jugado un rol importante en intentar alcanzar este acuerdo. La AI Act es una regulación pionera y ha marcado muchas de las líneas que ahora están presentes en ese código de conducta que se pretende implementar a nivel global.
Estados Unidos mueve ficha. Paralelamente al acuerdo del G7, la Administración Biden ha anunciado una orden ejecutiva de regulación sobre la inteligencia artificial, con requisitos equivalentes al Código de Conducta en materia de privacidad y seguridad.
El problema: es voluntario (aunque cuenta con apoyo). La gran diferencia entre este acuerdo del G7 y la regulación europea es que mientras la segunda será una ley, esto es un acuerdo de unas reglas que no se traducirán en leyes.
El Código de Conducta es eso mismo. Una serie de pautas y recomendaciones, pero de carácter voluntario. Es decir, no se obligará a empresas como OpenAI, Google, Meta o Microsoft el cumplirlas. No se descarta que estas mismas empresas acaben firmando el acuerdo, pero los líderes del G7 han optado por dejar en manos de estas empresas privadas esa decisión.
Una de las que ha reaccionado ha sido Google. Kent Walker, su vicepresidente de Asuntos Globales, expone que "el Código de Conducta del G7 marca un paso importante hacia el desarrollo y la implementación responsable de la IA de manera que beneficie a todos. Google apoya el Código de Conducta del G7 y esperamos trabajar con los gobiernos, la industria y la sociedad civil para afrontar este momento crítico”.
Imagen | Stefan Rousseau - WPA Pool/Getty Images
En Xataka | Las empresas de IA parecen las primeras interesadas en regular la IA. Eso es preocupante
Ver 19 comentarios