El mes pasado te contábamos como mentir en el currículo era algo del pasado. Lo último en engaños para entrevistas de trabajo remotas era hacerse pasar por otras personas usando deepfakes. Y, aunque la finalidad de estas acciones poco tenía que ver con conseguir realmente el puesto de trabajo, dejaba en evidencia un nuevo problema de seguridad.
Lo cierto es que, en mayor o menor medida, las videollamadas parecen haber llegado para quedarse, no solo en el ámbito profesional, sino también en el personal. Por consecuencia, todas las personas estamos expuestas a ser engañadas. La pregunta es: ¿podemos detectar un deepfake fácilmente? La compañía Metaphysic propone una curiosa técnica.
Una técnica tan prometedora como sencilla
Un estudio reciente asegura que "cazamos" menos de la mitad de los deepfakes que pasan frente a nuestros ojos, aunque claro, no siempre contamos con las mismas posibilidades para detectarlos. Si estamos viendo un vídeo compartido en las redes sociales, a menos que contemos con herramientas especializadas, no tenemos más alternativa que agudizar la vista para intentar identificar si se trata de un engaño.
No obstante, si nos encontramos en una videollamada las posibilidades para detectar un deepfake aumentan. Podemos pedirle a la otra personas que realice una serie de gestos que distorsionen en el trabajo del software que está haciendo el deepfake en tiempo real y así podremos descubrir su intento por suplantar la identidad de otra persona.
El equipo de Metaphysic le pidió al actor Bob Doyle que participara en una serie de videollamadas utilizando DeepFaceLive, una versión de deepfake en tiempo real del popular software DeepFaceLab. Como podemos ver en las imágenes, el sistema hizo muy bien su trabajo con la mayoría de los personajes.
Doyle se convirtió en Sylvester Stallone, Ryan Reynolds, Nicolas Cage, Keanu Reeves, Tom Cruise, Vin Diesel, entre otros. Sin embargo, en medio de la transmisión, le pidieron que moviera su cabeza hacia un costado lentamente. ¿El resultado? La calidad del deepfake iba perdiéndose a medida que en ángulo alcanzaba los 90 grados.
Según explican el equipo, la mayoría de los sistemas de deepfakes no funcionan bien en escenarios de ángulos agudos. Esto se debe a que casi todos los puntos de referencia utilizados por el algoritmo de reconocimiento facial están asignados en la parte frontal de rostro. Así, cuando alguien muestra su rostro de perfil del deepfake empieza a perderse.
Otra de las técnicas que Metaphysic propone para identificar deepfakes es pedirle a la persona con la que estamos realizando una videollamada que mueva su mano frente a su rostro. Esto creará una "situación crítica para el modelo que probablemente demostrará su latencia y una calidad de superposición deficiente sobre el rostro verdadero".
A medida que la tecnología avanza y los algoritmos reciben mayor entrenamiento, los deepfakes son más precisos y realistas. No obstante, por lo pronto puedes pedirle a una persona que gire su cabeza en un ángulo de 90 grados o que agite su mano frente a la cámara para saber si te está engañando. Aunque reconocemos que esto también podría resultar incómodo para para los participantes de la videollamada.
En Xataka | Una inteligencia artificial ha escrito e interpretado un monólogo de Seinfeld. El resultado es asombroso
Ver 2 comentarios