Suele ocurrir que la regulación en el campo de la tecnología va varios pasos por detrás. Precisamente eso es lo que se está intentando evitar en el campo de la inteligencia artificial, donde la explosión de ChatGPT ha hecho que se advierta de los riesgos que pueden tener estos modelos de IA generativa. Varios países están ya poniéndose en marcha para regular la IA, pero por ahora no parece fácil llegar a un consenso.
EEUU. Según Bloomberg, el gobierno de Joe Biden parece estar dividido acerca de cómo regular la IA. Mientras que algunos miembros del gobierno apoyan las estrictas medidas que la Unión Europea ha planteado para productos como ChatGPT o Dall-E 2. Otros creen que una regulación tan fuerte puede poner a Estados Unidos en desventaja.
Recordando las redes sociales. Gina Raimondo, Secretaria de Comercio en EEUU, comparaba estos avances en IA con lo que ocurrió con las redes sociales. Con los años parece claro que debería haberse restringido su desarrollo, pero es que ahora "hay mucho más en juego", explicaba en el reciente evento Trade and Technology Council que EEUU y la UE han celebrado en Suecia. Según Raimondo "el hecho de que puedas hacerlo no significa que debas hacerlo".
Europa y su AI Act. Mientras, en Europa ya se está perfilando esa AI Act que para algunos es demasiado restrictiva. Entre otras cosas, forzaría a los desarrolladores de estas soluciones a documentar si han usado material con copyright para entrenar sus modelos y hacer un seguimiento detallado de cómo se está usando esa información. La UE será probablemente el primero en restringir el uso y desarrollo de la IA, pero sigue sin quedar claro cuáles serán los términos finales de esa regulación.
Vestager avisa. Margethe Vestager, vicepresidenta ejecutiva de la Comisión Europea, explicaba en ese encuentro cómo "podemos impulsar algo que hará que todos nos sintamos mucho más cómodos con el hecho de que la IA generativa ya está en el mundo y se está desarrollando a velocidades asombrosas".
La regulación ya va tarde. A pesar de los esfuerzos de la UE por acelerar en este ámbito, la AI Act aún sigue en proceso legislativo. Vestager explicaba que "en el mejor de los casos tomará efecto en dos años y medio o tres años. Eso, obviamente, es demasiado tarde. Necesitamos actuar ya". Para la mandataria europea es necesario que haya acuerdos específicos y no solo declaraciones genéricas.
¿Está Europa yendo contra EEUU? En Bloomberg añaden otro punto importante: la regulación europea en materia tecnológica afecta muy especialmente —y lo hemos visto con las multas multimillonarias— a las empresas norteamericanas. Esa industria ha criticado a Biden por no apoyarla más, y con esta nueva regulación podría repetirse esa forma de coartar el desarrollo tecnológico de EEUU al limitar su alcance, al menos en el viejo continente.
Altman ya avisó: si la UE sigue por ese camino, peligro. El CEO de OpenAI realizó una gira por varios países europeos y se reunió con los reguladores para hablar sobre el crítico tema de la regulación. Su opinión sobre la AI Act de la Unión Europea parece ser clara: la ve demasiado restrictiva, y de hecho comentó que "trataremos de cumplir [con la regulación], pero si no podemos dejaremos de operar [en la UE]".
Japón. El gobierno japonés plantea una regulación más laxa, y su objetivo es según Japan News promover el uso de IA generativa y fortalecer las capacidades de Japón para desarrollar este tipo de modelos. Eso sí, solucionando problemas como la violación del copyright o la exposición de datos confidenciales.
Alianza con EEUU. El borrador de la llamada "Integrated Innovation Strategy for 2023" revela cómo esta tecnología tiene el potencial de mejorar la productividad y solucionar problemas sociales. Además plantea un plan para establecer el llamado Global Startup Campus, un centro de I+D conjunto de Japón y EEUU que promocione la "ciencia abierta" utilizando la información de instituciones académicas y de investigación para beneficiar a la sociedad.
G7. Este grupo que engloba a las grandes potencias mundiales acordó hace unos días la creación de un foro intergubernamental llamado el "Hiroshima AI Process" con un objetivo: debatir sobre el auge de las herramientas de inteligencia artificial y plantear una regulación conjunta para esta tecnología. Se espera que de ese debate se planteen estándares internacionales para lograr que la IA sea "digna de confianza" y que esté "alineada con nuestros valores democráticos comunes", como explicaban los responsables de esa iniciativa.
Imagen | Xataka con Midjourney
En Xataka | Hemos probado el nuevo buscador de Google con IA. La duda es si realmente supone una revolución
Ver todos los comentarios en https://www.xataka.com
VER 2 Comentarios