El reconocimiento facial es una tecnología aún emergente, pero cuya industria tiene ya un valor que se mide en miles de millones de euros. Los gobiernos, pero también el sector privado, se encuentra inmerso en grandes proyectos de implementación de éste y otros sistemas biométricos.
Pero, como en todos los campos en los que hay algoritmos y datos de por medio, el reconocimiento facial se ha visto inmerso en toda clase de polémicas con una dimensión política, al girar en torno a acusaciones de discriminación racial.
Sin embargo, según se hace eco el medio online Motherboard, el sector se enfrenta ahora a una nueva polémica por otra clase de discriminación, que giraría en este caso en torno a las personas transgénero y de 'género no conforme'.
Sesgos y categorías de género
Académicos y activistas señalan que la utilización de las categorías de 'hombre' y 'mujer' en algunos sistemas de reconocimiento facial, con una implantación creciente en los aeropuertos estadounidenses, pueden convertir un viaje en una "complicada pesadilla". Según Motherboard,
"los sesgos programados en el software de reconocimiento facial implican que las personas transgénero y de 'género no conforme' pueden no ser capaces de usar unos avances en el campo del reconocimiento facial que, al menos nominalmente, tienen la intención de facilitar la vida de las personas y, lo que es más importante, pueden ser discriminadas y malinterpretadas, o identificadas incorrectamente por el software".
Todo esto surge a raíz del investigador Os Keyes, estudiante de doctorado en el Laboratorio de Ecología de Datos de la Univ. de Washington, cuyo campo de estudios gira en torno a "una combinación desordenada de estudios de género, estudios de ciencia y tecnología e interacción hombre-computadora".
Keyes -que en su web solicita el tratamiento de 'Mx.', en lugar de 'Mr.' o 'Ms.' (los tradicionales para hombres y mujeres, respectivamente, en lengua inglesa)- quiso descubrir la razón de la omnipresencia de las tecnologías de 'reconocimiento automático de género' analizando 58 investigaciones de los últimos 30 años relativas al reconocimiento facial.
Denuncia Keyes que en el 90% de los casos estas investigaciones se adscribían al "modelo binario de género" (esto es, a contemplar únicamente las categorías de 'hombre' y 'mujer'), y que en el 80% de los casos entendían el género como un concepto fisiológico, y no sociocultural. En palabras del investigador,
"este modelo básicamente borra a las personas transgénero, excluyendo sus preocupaciones, necesidades y existencias tanto del diseño como de la investigación. [...] La investigación de AGR fundamentalmente ignora la existencia de personas transgénero, con resultados peligrosos".
Keyes, que afirma no ver la necesidad de que exista ningún tipo de reconocimiento de género, sostiene que la tecnología es un circuito que se retroalimenta: "los valores que incorporamos a nuestras máquinas instruyen a quienes las usan".
Por ello, pide que los estudiantes de ciencias de la computación empiecen a recibir formación en estudios de género.
Cuando el debate político choca con los algoritmos
La postura de Keyes, de la que se hace eco Motherboard, refleja las complejidades a las que se enfrenta el desarrollo tecnológico cuando se cruzan en su camino cuestiones sociopolíticas.
Es cierto que las categorías que maneja una IA vienen determinadas por las que manejan sus programadores. Pero... ¿es criticable que la tecnología haga bien el trabajo que le hemos encomendado, o lo es más bien las decisiones que los humanos tomamos en base a sus resultados?
Motherboard cita en el artículo varios casos en los que personas con aspecto externo correspondiente a un género determinado y en cuya documentación constaba aún otro género fueron 'vejadas' y 'tratadas como terroristas', un asunto que tiene que más que ver con los protocolos de actuación policial que con el diseño de los algoritmos.
Por otra parte, la tecnología de reconocimiento facial trata de extraer toda la información posible de los sujetos, no sólo el género o la raza, también la edad (o, incluso, el estado emocional).
Ya antes de los últimos avances tecnológicos, la antropología física estudiaba modos de determinar el sexo biológico de las personas a partir de discrepancias objetivas en su estructura cráneofacial. Más recientemente, la IA ha demostrado ser capaz de diferenciar a partir de factores como la sonrisa o la estructura de la retina.
Es previsible que, en la medida en que siga siendo necesario verificar con detalle la identidad de los individuos que pretenden acceder a determinados espacios físicos o servicios digitales, el género / sexo biológico (al margen del estatus administrativo o social) siga siendo utilizado en el futuro como un factor a analizar.
Vía | Motherboard
Imagen | O de Andrade
Ver todos los comentarios en https://www.xataka.com
VER 137 Comentarios