En febrero de 2021, a un niño le apareció una infección en la ingle. Y su padre, Mark, como es normal, le hizo una foto para enviársela a su pediatra, pues no podía atender presencialmente por la pandemia. Así, podría identificar el problema y aportar posibles curas.
El final no fue del todo feliz: al niño se le curó la infección con antibióticos gracias a un diágnostico hecho con lo observado en las imágenes, pero, según cuenta The New York Times el padre acabó con las cuentas de Google cerradas y hasta sin número de teléfono (al ser usuario de Google Fi).
¿El motivo? La compañía etiquetó las imágenes como material de abuso sexual infantil. Lo lo peor no es perder una cuenta, que por lo que dependemos de ellas hoy en día ya puede ser algo muy grave, sino que, mientras tratas de ayudar a tu hijo, una compañía tecnológica gigante te etiquete como criminal. En el momento del bloqueo, la compañía alegaba "violación severa de las políticas de la compañía y que podía ser ilegal".
Cuando la inteligencia artificial se va de las manos con los falsos positivos

La inteligencia artificial lleva años funcionando relativamente bien para detectar ciertos contenidos desinformadores, para detectar pornografía infantil, etc. Pero como siempre, hay falsos positivos y falsos negativos. Y en casos como este de las fotos de un padre a su hijo, que además no distribuyó masivamente, hace falta que las herramientas se entrenen mejor y que, ante una conclusión tan dramática, actúe siempre una persona que escuche la versión del supuesto criminal.
Las herramientas que se utilizan a día de hoy para esto son polémicas por cómo pueden vulnerar nuestra privacidad. Porque para funcionar, tienen que comparar nuestras fotos con las bases de datos de pornografía infantil. Y claro, puede ocurrir algo como el incidente que ha sufrido Mark, que pese a tratarse de una imagen personal que no estaba en ningún lugar previo, el sistema saltó. Y lo hizo, según Google, porque en los seis meses anteriores, su cuenta ya contaba con un vídeo de una mujer desnuda en la cama con el niño, que el sistema entendió que podía ser problemática.
En el polémico sistema propuesto por Apple para iCloud Photos, que le valió ser tildado de "spyware gubernamental" lo que se escaneaba eran hashes, no fotos. Es decir, según Apple, la compañía no sabe lo que hay en la foto que el sistema escanea, ve números que comparar con otros números de la base de datos.
Los expertos en protección a menores argumentaban que el margen de error era ínfimo con el sistema de Apple, pero finalmente no se ha puesto en práctica. El de Google, que sí está activo con su Content Safety API ha caído en ese margen de error al usar inteligencia artificial para "proactivamente identificar CSAM (Contenido de Abuso Sexual Infantil) de imágenes nunca antes vistas".
Aunque el sistema falle, la parte extraña del caso es la del análisis que hay que hacer antes de enviar la información al Centro Nacional para Niños Desaparecidos y Explotados, o desde allí a las autoridades, pues intervienen personas. En 2021, el NCMEC avisó a las autoridades sobre 4.260 víctimas potenciales.
Según el NYT, esa lista incluía al hijo de Mark. El total de veces que Google informó al NCMEC para que tomaran las acciones oportunas, eso sí, fue mucho más alto: más de 600.000 casos, según el informe de transparencia. Es decir, el NCMEC tuvo que hacer un gran cribado, pero aun así no fue suficiente para casos como el de Mark.
El proceso de escaneo comenzó al subirse las fotos del padre a Google Fotos, que es la "acción afirmativa" que necesitan para que el sistema tengo vía libre con fotografías personales. Una portavoz de Google dijo a The New York times que la compañía mantenía sus decisiones, pese a que legalmente todo se había aclarado. A día de hoy, Mark sigue sin poder acceder a su cuenta pero a que legalmente el caso se aclaró. En un comunicado a The Verge, Google ha defendido lo siguiente:
"El material de abuso sexual infantil es abominable y estamos comprometidos a evitar que se propague en nuestras plataformas. Seguimos la ley de los EE.UU. al definir lo que constituye CSAM y usamos una combinación de tecnología de comparación de hash e inteligencia artificial para identificarlo y eliminarlo de nuestras plataformas. Además, nuestro equipo de expertos en seguridad infantil revisa el contenido marcado para verificar su precisión y consulta con pediatras para ayudar a garantizar que podamos identificar instancias en las que los usuarios pueden estar buscando asesoramiento médico".
Ver 20 comentarios
20 comentarios
myboo9632
Ah pero si así fueran de buenos para denunciar canales de YouTube que ponen caldo de pollo y demás perversiones
tester482
¿Y antes de denunciarle Google no supervisa el caso un ser humano? , pues es para meterles un buen contrajuicio y pedir daños morales
sanamarcar
Los algoritmos sin humano detras... en fin.
p2dzca
"La inteligencia artificial lleva años funcionando relativamente bien para detectar ciertos contenidos... " No, no es así. Funciona bastante mal. Estaría bien que alguna vez publicaseis las vergüenzas de las tecnológicas.
Los servicios de las grandes tecnológicas no serían tan rentables si lo que hace una mediocre IA lo hicieran las personas. Por ejemplo, cada día se publican 720.000 horas de vídeos en YouTube. Si las dividimos entre 8 horas de jornada laboral, harían falta 90.000 personas para visionarlas. YouTube tiene 2.800 empleados.
¿Qué hacen YouTube, Facebook, etc.? Contratan a empresas externas que les hacen el trabajo sucio (pero ni por asomo contratan a 90.000 trabajadores externos). Suelen estar en países con costes laborales bajos y sus empleados están mal pagados. Suelen durar poco en su trabajo y muchos acaban con trastornos psicológicos. Imaginad qué tiene que ser ver durante toda una jornada laboral vídeos con violencia física, violaciones, maltrato infantil, maltrato animal, vídeos de conspiraciones, etc. para aceptar o rechazar los vídeos. Antes de poder trabajar en esas empresas reciben una formación y tienes que pasar unos exámenes que criban a mucha gente. Hay personas que no soportan la formación (por los vídeos que deben ver) y abandonan. Las que aprueban y empiezan a trabajar sufren mucho psicológicamente. Muchas abandonan al poco tiempo y otras duran más. Casi todas necesitan atención psicológica tras trabajar en esas empresas. Algunas personas se vuelven conspiranoicas tras ver muchos vídeos con teorías sobre conspiraciones, o se vuelven terraplanistas, etc. La presión es enorme, porque si la empresa contratante (por ejemplo, YouTube) recibe una reclamación por un vídeo delictivo o indebido y la empresa que contrató lo dio por bueno, pueden penalizarla y esta al trabajador o trabajadora.
La IA solo sirve para reducir los costes del trabajo de las personas que revisan contenidos y lo que interesa es que filtre cuanto más mejor, aunque filtre algo que no debiera haberse filtrado.
Trocotronic
Sabiendo que cualquier foto que hagas termina en la nube y puede ser utilizada por Google o Apple, hacerle una foto a los genitales de tu hijo me parece una temeridad.
HAXNAGE
Una foto de un niño desnudo es una foto de un niño desnudo sea cual sea el contexto o la situación y las reglas son claras. Le tocará al padre defenderse porque eso no debe hacerse.