Europol alerta contra el abuso de los deepfakes. En su último informe junto al UNICRI ('Instituto Interregional de Investigación sobre Justicia y Crimen de las Naciones Unidas') y Trend Micro urge a las instituciones europeas a actuar para prevenir los posibles peligros de la inteligencia artificial y en concreto de los deepfakes.
Sean vídeos falsos de políticos conocidos o simplemente campañas de desinformación, la Policía Europea espera que estos deepfakes sean cada vez más avanzados y alerta que habría que actuar ya. "Se espera que los individuos y grupos detrás del abuso de deepfakes adapten su modus operandi con el objetivo de evadir la detección y entrenen sus modelos siguiendo las medidas de contradetección", explica el informe.
"Actualmente no existe una solución tecnológica contra los deepfakes"
"Los deepfakes son actualmente el uso más conocido de la IA como vector de ataque", avisa Europol. Ante ellos, el informe no solo advierte de los posibles riesgos sino que solicita la creación de una nueva tecnología de detección para mitigar en el futuro el riesgo de estos deepfakes y su posible uso para desinformar o extorsionar.
Por el momento, la tecnología para detectar estos deepfakes está por detrás de la propia tecnología para crearlos. En junio de 2020, Facebook publicó los resultados de su Deepfake Detection Challenge, donde utilizaron algoritmos para detectarlos. En total de presentaron más de 35.000 algoritmos, de entre los cuales el mejor terminó con una precisión de apenas el 65%. Claramente insuficiente para frenar la avalancha de deepfakes que podríamos ver durante los próximos años.
"Actualmente no existe una solución tecnológica que se adapte a la medida para detectar eficazmente todo tipo de deepfakes", afirma el informe de Europol. Sí valoran el uso de la identificación manual, particularmente de moderadores u organismos competentes entrenados para detectar las inconsistencias.
¿Cómo detectar un deepfake? Según Europol hay que fijarse en sombras o iluminación extraña, ruido de fondo exterior en un vídeo interior, cambios repentinos en el fondo y otros detalles. También en inconsistencias del hablante como falta de parpadeo o parpadeo irregular, desajuste entre los tonos de piel facial y corporal, discordancia entre el movimiento de los labios y el audio y otros detalles.
Si bien, esta identificación manual tiene la clara dificultad de ser solo posible para un pequeño volumen de archivos. Ni es escalable ni Europol cree que pueda ser sostenible para la oleada de deepfakes que se esperan. Adicionalmente, la Policía europea pone encima de la mesa los distintos riesgos psicológicos para las personas encargadas de esta tarea.
Por todo ello explican que "es necesario no solo realizar importantes inversiones para esta tecnología de detección y cribado, sino garantizar que estas herramientas están actualizadas". Un desarrollo que debería realizarse "de manera colaborativa entre la industria, profesionales de los medios y las autoridades competentes como investigadores de la Policía, peritos forenses y analistas".
Según propone un informe de la Oficina de Asuntos Exteriores de Alemania, la futura Ley de Servicios Digitales (DSA) debería incluir "oportunidades de regulación" contra los "ataques de deepfakes". Sin embargo, según apuntan desde Euractiv difícilmente veamos un apartado concreto sobre este tema.
Más información | Europol
Ver 2 comentarios