Por mucho que agudices la vista, por bueno que seas quedándote con las caras y por más que entrenes, asúmelo, es probable que no puedas ganarle la partida al deepfake. Tras realizar varios experimento con retratos ficticios, generados por inteligencia artificial (IA), un grupo de investigadores ha llegado a la conclusión de que "cazamos" las imágenes falsas menos de la mitad de las veces.
Sus experimentos demuestran que solo acertamos en el 48,2% de las ocasiones, lo que significa que —al menos desde un punto de vista teórico y de pira estadística— tendríamos más probabilidades de dar en el clavo si nos lo jugásemos a cara y cruz y lanzásemos una moneda al aire.
Para su estudio los investigadores realizaron varios experimentos con 800 imágenes, todas retratos de personas con fondos neutros. Algunas eran reales, otras sintéticas, elaboradas por StyleGAN2, un algoritmo de IA presentado por Nvidia hace un par de años. Durante su primer análisis se pidió a 315 personas que observasen 128 fotos y valorasen si eran reales o deepkaes. ¿El resultado? De media, acertaron el 48,2% de las veces, muy cerca, reconocen, de lo que se conseguiría por pura suerte.
En una segunda prueba los científicos cambiaron ligeramente las reglas de juego: se dio a los participantes algunas nociones de cómo identificar un rostro falso y se les informó, después de cada análisis, de si habían acertado o no. Con esa ayuda extra, su puntería subió al 59%. Eso sí, a los observadores les fue mejor en la primera mitad del experimento que en la segunda.
Más "fiables" que los rostros reales
"El rendimiento general se mantuvo solo ligeramente por encima del azar. La falta de mejora a lo largo del tiempo sugiere que el impacto de la retroalimentación es limitado, presumiblemente porque algunas caras sintéticas simplemente no contienen artefactos perceptualmente detectables", explican los investigadores en su artículo, publicado en Proceedings of the National Academy of Sciences.
Más allá de las veces que detectamos un deepfake, el experimento deja algunas conclusiones curiosas. Las observaciones revelan, por ejemplo, que nos resulta más difícil acertar cuando lo que tenemos delante es un rostro blanco. No es casualidad. Como apuntan los investigadores, la razón es probablemente que la base de datos con la que se entrena StyleGAN2 cuenta con mayor número de fotografías de caucásicos, lo que le permite generar imágenes "más realistas".
Otra cuestión interesante es cómo de fiables nos resultan los rostros elaborados con inteligencia artificial. ¿Nos transmiten una sensación de seguridad? Y si es así, ¿Es esta mayor que la que nos suscitan las caras de personas de carne y hueso? Para salir de dudas los científicos pidieron a 223 personas que calificaran la "confiabilidad" de 128 retratos, todos tomados de la base de 800 imágenes del experimento. Luego les pidieron que las evaluasen del uno al siete.
El resultado no nos deja muy bien parados. Por término medio, los rostros reales recibieron una puntuación de 4,48. Los deepfakes, 4,82. Es más, las cuatro caras que levantaban más sospechas durante el experimento eran reales y las tres mejor paradas, sintéticas, fruto de StyleGAN2.
¿El motivo? Los investigadores creen que tiene poco que ver con la expresión de los rostros y no detectaron grandes variaciones relacionadas con la raza —no así con el sexo, que deja mejor parado a las mujeres—. Para ellos la clave está en la naturaleza de los deepfakes y la psicología.
"Las caras sintetizadas tienden a parecerse más a los rostros promedio, que, a su vez, se consideran más fiables", explican. Las redes GAN, como la empleada en el experimento, aprenden básicamente a generar caras lo más realistas posible gracias a su propio funcionamiento interno: primero crea una imagen aleatoria y luego, gracias a una base de fotos reales, va perfeccionando el resultado hasta que una de sus redes neuronales, el "discriminador", es incapaz de apreciar si es falsa.
Con los datos sobre la mesa, los científicos alertan de los graves riesgos de los deepfakes. "Los rostros generados sintéticamente no solo son fotorrealistas, sino que son casi indistinguibles de los rostros reales y se consideran más confiables", precisan. Aunque ese nivel de fidelidad es sin duda un "éxito para el campo de la infografía", en otras áreas creen que puede resultar más polémica.
"El fácil acceso a estas imágenes falsas de alta calidad ha provocado y seguirá provocando diversos problemas, como perfiles falsos más convincentes y, a medida que la generación de audio y vídeo sintéticos siga mejorando, problemas de imágenes íntimas no consentidas, fraude y campañas de desinformación, con graves implicaciones", reflexiona el equipo de investigadores.
Desde luego no son los primeros en advertir de los riesgos de los deepfakes. Las imágenes y grabaciones generadas por IA se usan ya para cometer fraudes, engaños o vulnerar la intimidad de las personas falseando vídeos y fotos con los que luego se crean piezas con un claro contenido sexual. Afecta a los particulares, pero también, subrayan los expertos, a las democracia.
Sobre todo a medida que los contenidos resultan más realistas y despiertan un mayor grado de confianza por parte del público. Su amenaza reside tanto en el material falseado como en la sombra de duda que arroja sobre el real. "Quizás lo más pernicioso es la consecuencia de que, en un mundo digital en el que cualquier imagen o video puede falsificarse, la autenticidad de cualquier grabación inconveniente o no deseada puede ser cuestionada", concluyen los autores del estudio.
Ver todos los comentarios en https://www.xataka.com
VER 4 Comentarios