La recién aprobada Ley de Inteligencia Artificial de la Unión Europea, el primer marco legal sobre IA a nivel mundial, tiene como objetivo proporcionar a desarrolladores de IA los requisitos y obligaciones respecto a los usos específicos que pueden hacer con esta tecnología, así como reducir las cargas administrativas y financieras para las empresas que la desarrollan, especialmente las pymes.
Sus reglas tienen como núcleo garantizar que los europeos puedan confiar en lo que la IA les pueda ofrecer. Y aunque la mayoría de sistemas de IA no suponen un riesgo según el criterio de las autoridades europeas, algunos sí lo suponen, y son estos quienes son limitados o directamente restringidos por esta nueva regulación.
La UE lo afronta repartiendo los riesgos que puede suponer cada sistema de IA en cuatro niveles. Los que marcan a qué se podrá acoger cada uno de ellos.
Riesgos inaceptables
Quedan directamente prohibidos. No pueden aplicarse de ninguna forma en la UE los sistemas de IA considerados “una clara amenaza para la seguridad, los medios de vida y los derechos de las personas”, desde la puntuación social de los gobiernos hasta los juguetes que utilizan asistencia por voz que pueda fomentar el comportamiento peligroso, pasando por sistemas de reconocimiento masivo.
Este punto es el que buscar restringir por completo los sistemas de IA que puedan ser usados para la manipulación o la vigilancia masiva. No hay nada que una empresa pueda hacer para intentar comercializar su sistema si cae en esta definición.
Alto riesgo
Estos sistemas quedan sujetos a obligaciones estrictas antes de ser comercializados. El texto contempla sistemas de evaluación y mitigación de riesgos, el requisito de alta calidad para los conjuntos de datos que alimenten su sistema (de cara a minimizar riesgos de resultados discriminatorios), un registro de la actividad que garantice la trazabilidad de los resultados, una documentación detallada que incluya toda la información sobre el sistema y su propósito para que las autoridades puedan evaluar su cumplimiento, medidas de supervisión humana y un alto nivel de robustez, seguridad y precisión.
En este nivel cae cualquier sistema de identificación biométrica remota, que quedan sujetos a estrictos requisitos. Directamente están prohibidos en espacios de acceso público y solo se contemplan, con todas estas obligaciones, en entornos privados.
Hay excepciones definidas para casos de extrema urgencia, como cuando es necesario para localizar a un niño desaparecido, para prevenir una amenaza terrorista inminente o para perseguir al perpetrador o sospechoso de un delito grave.
Estos sistemas “de alto riesgo” incluyen los que usan IA para infraestructuras críticas, como el transporte; la formación educativa o profesional, los componentes de seguridad de los productos, la gestión de trabajadores y el acceso al trabajo, los servicios esenciales públicos y privados, el control fronterizo y la gestión de la migración o la administración de justicia y los procesos democráticos, entre otros.
Además, quedan sujetos a una serie de pasos que tienen que cumplir como requisito para ser comercializados, incluyendo el marcado CE cuando hayan sido completados. Y en el caso de que haya cambios sustanciales en el sistema durante su tiempo de vida, deberá volver a someterse a estos pasos antes de su introducción comercial.
Riesgo limitado
Este nivel comprende los riesgos asociados con la falta de transparencia en el uso de la IA. Por ejemplo, los chatbots, que deberán indicar de forma transparente que son un chatbot, no un ser humano, para que quien está al otro lado de la conversación pueda decidir si seguir usándolo o no.
También se incluye el contenido generado por IA, que debe ser identificable como tal. Concretamente, el texto generado por IA que tenga el propósito de informar sobre asuntos de interés público debe ser etiquetado como generado artificialmente, algo que también se aplica a los deepfakes en audio o en vídeo.
Riesgo mínimo o nulo
La nueva Ley permite el libre uso de este tipo de sistemas. Incluye los que se integran en sistemas de filtrado de spam para el correo electrónico o los que contienen algunos videojuegos.
La gran mayoría de los sistemas de IA que se usan hoy en día en la UE, según el propio ente, entran en esta categoría, por lo que nada cambiará para ellos en cuanto a requisitos legales: no tendrán que afrontar obligación alguna, como hasta ahora.
Imagen destacada | Mockuuups Studio, Engin Akyurt en Unsplash, Xataka
Ver 3 comentarios