La Inteligencia Artificial tiene numerosas aplicaciones, desde la ciencia hasta las artes, pasando por recomendaciones audiovisuales en plataformas como YouTube o Netflix. Su potencial es tal, que es capaz de mantener conversaciones e incluso de producir textos escritos en base a pautas previas, algo que está siendo utilizado actualmente por algunos universitarios australianos para realizar sus tareas de clase.
Además, la IA puede ser empleada en materia de seguridad. En este sentido, el Ministerio del Interior está trabajando en un programa de reconocimiento facial que, si bien parece que facilitará el trabajo policial, genera muchas dudas entre los expertos.
Mecanismo del ABIS. La Policía Nacional y la Guardia Civil tienen previsto utilizar este año el sistema de reconocimiento facial denominado ABIS (siglas en inglés de Sistema Automático de Identificación Biométrica), desarrollado por la compañía francesa Thales. Este sistema, es capaz de establecer un patrón para una fotografía y seleccionar todas aquellas imágenes similares que se encuentran almacenadas en una base de datos: los agentes le proporcionan una foto de un individuo y el sistema, tras detectar un patrón en los rasgos faciales de esa persona, les facilita las fotografías guardadas en la base de datos y que siguen dicho patrón.
Comparación de fotografías. El programa emplea técnicas de visión computacional capaces de detectar y extraer el rostro de un individuo que se halla en la fotografía. Posteriormente, el algoritmo del sistema, denominado Cogent (convincente en inglés), se encarga de elaborar el patrón de los rasgos faciales para ofrecer las imágenes de la base de datos que siguen ese mismo modelo.
No se utilizarán bases de datos civiles. El Ministerio del Interior explica, según El País, que la base de datos con la que trabajará ABIS tendrá alrededor de cinco millones de fotografías de detenidos y sospechosos ya fichados por las fuerzas de seguridad, a las que se sumarán las imágenes de las personas arrestadas, una vez se comience a emplear el sistema de reconocimiento facial. Por otro lado, la Policía Nacional reconoce que no se utilizarán imágenes pertenecientes a bases de datos civiles, como aquellas empleadas en los documentos de identidad.
Ya se usa en Pekín y Moscú. El sistema de reconocimiento facial, que permite aumentar la capacidad de vigilancia de las fuerzas de seguridad, ya se utiliza en otros países. China es uno de los casos más conocidos: las calles de las principales ciudades del gigante asiático están repletas de cámaras capaces de identificar automáticamente los rostros de los ciudadanos.
En Rusia también se emplea un sistema similar: Moscú cuenta con alrededor de 105.000 cámaras de reconocimiento facial, distribuidas por toda la ciudad.
Presencia en calles británicas y estadounidenses. Por otro lado, es sabido que esta tecnología también ha llegado a países occidentales. En Reino Unido, por ejemplo, las cámaras de reconocimiento facial están distribuidas en el espacio público, con el objetivo, según la Policía Metropolitana, de “prevenir y detectar el crimen”. En EE.UU, su uso también está muy extendido: el departamento de policía de Nueva York aporta, de hecho, una explicación de su funcionamiento en su página web.
Fallos en materia de privacidad. Sin embargo, este sistema ha recibido críticas en estos dos últimos países, desde diferentes ámbitos universitarios y sociales. En Reino Unido, un informe realizado por el Centro Minderoo para la Tecnología y la Democracia, perteneciente a la Universidad de Cambridge, concluyó que el sistema Live Facial Recognition (Reconocimiento Facial en Directo) debía retirarse de cualquier espacio público por no cumplir “los estándares mínimos éticos y legales” en materia de privacidad y discriminación social.
Mecanismo racista. En Estados Unidos, este sistema también ha sido criticado por su potencial racismo. El NIST (Instituto Nacional de Patrones y Tecnología en castellano) publicó un estudio en diciembre de 2019 que indicaba cómo los algoritmos utilizados por los programas de reconocimiento facial fallaban más en personas “no blancas” (non-white en inglés), como asiáticas y afroamericanas, que en personas blancas.
Detenciones irregulares. Es decir, el algoritmo encontraba erróneamente, de forma estructural, imágenes similares a las de ciudadanos afroamericanos en la base de datos de los individuos detenidos. En este sentido, en enero de 2020 se produjo la primera detención irregular de un ciudadano norteamericano tras un fallo por parte del programa de reconocimiento facial del departamento de policía de Detroit.
La UE, a dos bandas. En Europa, la UE, que parecía estar en contra de estos sistemas de reconocimiento facial, se encuentra preparando una base de datos con millones de rostros de ciudadanos europeos. Sin embargo, este sistema, que no es infalible, abre la puerta a la vigilancia masiva de la ciudadanía y genera dudas en relación a la custodia de los datos.
Cómo y con quién se comparte esa información o qué posibilidades hay de dejar de estar registrado en la base de datos son algunas de las incógnitas. De momento, y lo único cierto, es que este año la Policía Nacional y la Guardia Civil utilizarán el programa ABIS para realizar su labor.
Imagen: Jürgen Jester / Unsplash
Ver 11 comentarios