La Unión Europea lleva varios meses trabajando en varias iniciativas relacionadas con la política tecnológica europea afectan de lleno a la inteligencia artificial. Durante el último Digital Day (10 de abril), ya se anunció que tanto la IA como las redes 5G y el blockchain eran tecnologías cuya regulación querían poner encima de la mesa los comisarios europeos.
Tras eso, el Grupo de Expertos de Alto Nivel en Inteligencia Artificial de la Comisión empezó a reunirse para debatir un primer borrador de unas directrices éticas para el desarrollo y uso de la Inteligencia Artificial.
Este grupo lo conforman 52 expertos del ámbito académico, empresarial y de la sociedad civil del continente (entre los que Cristina San José, responsable de nuevos negocios de big data del Banco Santander, ha sido la única española participante).
Este primer borrador fue, finalmente, presentado ayer en Bruselas. ¿Su objetivo? Garantizar su avance tecnológico al tiempo que se respetan los derechos humanos y los valores fundamentales de los europeos.
Durante el acto de presentación, el vicepresidente de la Comisión Europea Andrus Ansip afirmó que "para que las personas acepten y usen los sistemas basados en inteligencia artificial necesitan poder confiar en ellos y saber que su privacidad es respetada".
No hubo, sin embargo, referencias a los elementos más polémicos que algunos políticos pusieron sobre la mesa cuando empezó a debatirse este tema en 2017 (robots con derechos humanos y que paguen impuestos).
Una IA enfocada hacia la 'competitividad responsable'
Las directrices recogidas en este borrador de 36 páginas (PDF) señalan dos factores fundamentales a los que debe ajustarse la inteligencia artificial:
"Propósito ético": La IA deberá respetar, como decíamos, los DDHH y la regulación vigente.
"Robustez técnica": La IA deberá garantizar que, incluso siendo usada con buenas intenciones, la falta de pericia tecnológica en su manejo no causa un daño involuntario.
Según la Comisión Europea, estas directrices persiguen que la IA europea (y la de compañías extranjeras que ofrezcan sus servicios en suelo europeo) haga gala de una "competitividad responsable" y no pretenden "sofocar la innovación".
En el texto se recoge tanto su utilidad para proteger el estado de derecho como las aplicaciones más polémicas (armamento autónomo, vigilancia masiva, etc).
Del mismo modo en que Europa se ha proclamado referente a nivel mundial en la protección de datos privados, obligando a las grandes compañías extra-comunitarias a asumir nuestros estándares legales en este campo, el Ejecutivo europeo confía en lograr un impacto similar en el campo de la ética para IAs.
¿Y a partir de ahora?
A partir de ahora y por período de un mes, el borrador está abierto a comentarios de las instituciones y la sociedad civil, y no será hasta el próximo mes de marzo cuando se presente la versión definitiva.
Incluso entonces, los principios recogidos en el documento sólo serán orientativos: el objetivo es que guíen la elaboración de leyes futuras, no que se conviertan ellos mismos en ley.
La Comisión Europea también aprovechó el acto de ayer para anunciar que impulsará la adopción de estrategias nacionales de IA en cada estado miembro, así como la creación de una nueva colaboración público-privada en este campo a nivel europeo.
Su objetivo último es que, en conjunto, gobiernos y empresas inviertan al menos 20.000 millones de euros al año en investigación para IA a partir de 2020. Pretenden así, quizá, revertir la situación actual que nos obliga a permanecer por detrás de Estados Unidos y China en lo que respecta al liderazgo de la IA.
Ver todos los comentarios en https://www.xataka.com
VER 5 Comentarios