"Detección de rasgos faciales para el reconocimiento étnico": tal era es el título de un 'paper' publicado el año pasado en la reputada revista académica estadounidense "Data Mining and Knowledge Discovery", firmado por cuatro investigadores chinos y uno australiano. Lo cierto es que atrajo poca atención en su momento.
Pero hace unas semanas eso cambió, porque alguien se dio cuenta de una siniestra coincidencia: el documento, que hablaba específicamente del potencial de esa tecnología para "el mantenimiento de la seguridad pública", parecía describir la tecnología de vigilancia masiva que el régimen chino está utilizando de manera específica contra la minoría étnica uigur.
De hecho, el paper explica que para realizar esa investigación, financiada por las autoridades chinas, sus autores recopilaron más de 7.000 fotografías de estudiantes de tres minorías étnicas de la Universidad de Dalian (China)... y una de esas minorías era, precisamente, la uigur (junto a la tibetana y la coreana).
Wiley, la empresa estadounidense editora de "Data Mining and Knowledge Discovery", lanzó a su vez un comunicado en el que se precisaba que "al igual que [ocurre con] otras tecnologías del ámbito de la inteligencia artificial, el reconocimiento facial puede tener (y tendrá) implicaciones de largo alcance, tanto positivos como negativos, y pueden ser usados con propósitos maliciosos inesperados".
No sólo el coautor australiano del documento (Witold Pedrycz) trabaja en una institución occidental: también ese ése el caso de uno de los coautores chinos del artículo, profesor asociado de la Universidad de Curtin (Australia); dicha institución tuvo que anunciar el mes pasado que revisarían la investigación de Liu, tras revelar los medios su papel en el desarrollo de la tecnología de identificación étnica.
James Leibold, un experto en cuestiones étnicas chinas, profesor de la Univ. de La Trobe (Australia) explica que "los procedimientos éticos no son tan estrictos en China, y es posible que los estudiantes de minorías que participaron en el proyecto no fueran plenamente conscientes de cómo iban a ser usados sus datos, o las implicaciones que eso tenía para sus propias comunidades".
"Las universidades no pueden asegurar que la tecnología que ayudan a crear vaya a ser usada de forma ética"
Pese a que la persecución a la uigures ha sido condenada por las Naciones Unidas por, entre otros factores, recurrir a 'campos de reeducación', el descubrimiento de ese artículo ha servido para poner de manifiesto el papel fundamental que las instituciones occidentales están teniendo a la hora de desarrollar los algoritmos de identificación étnica que China usa luego sobre su población.
Así, según se recoge en un reportaje elaborado por el medio online Coda Story, han salido a la luz otros casos como el del torneo de reconocimiento facial organizado por el Imperial College de Londres y patrocinado por DeepGlint, una startup china que se anuncia en su web como proveedora de sistemas de reconocimiento étnico de uigures para la policía china. La institución londinense afirmó desconocer el papel de DeepGlint y aclaró que no volvería a aceptar su patrocinio.
En abril, el Financial Times se hacía eco de que "al menos 9 trabajos académicos sobre campos como el del reconocimiento facial o la videovigilancia fueron coescritos por investigadores de instituciones de prestigio de EE.UU. en colaboración con colegas de compañías chinas proveedoras de tecnología de cibervigilancia o vinculadas a estamentos militares". Cuatro de esos investigadores, por ejemplo, tenían vínculos con Google.
Alex Joske, del Instituto Australiano de Política Estratégica, explica que muchos académicos que China envía como visitantes en instituciones europeas son realmente funcionarios del Partido Comunista o cargos militares del Ejército Popular:
"Creo que esto es realmente preocupante, porque las universidades no tienen modo alguno de asegurar que la tecnología que ayudan a desarrollar o mejorar vaya a ser usada de forma ética".
Según los expertos citados por el Financial Times, esta clase de colaboraciones de investigación son "un importante punto ciego en las leyes de control de la exportación" y "una vía fácil para que el gobierno chino se aproveche de la experiencia en IA de científicos extranjeros". Según Joske, su investigación muestra que existe una supervisión sorprendentemente mínima en este tipo de casos.
Vía | Coda Story & Financial Times
Imagen | Peter Griffin
Ver todos los comentarios en https://www.xataka.com
VER 4 Comentarios