La foto principal de Scarlett Johansson es real. La de la persona de la derecha no. Es un deepfake generado por IA, y aunque está realmente lograda, ha sido posible detectar que había sido creada por una máquina. El método para lograr esa detección es especialmente curioso.
El secreto de sus ojos. Investigadores de la Universidad de Hull han desarrollado un novedoso método para detectar imágenes creadas por modelos de IA generativa. La clave, aseguran, está en los ojos de esas imágenes de personas. Y en concreto, en la forma en la que reflejan la luz.
Una técnica astronómica. La forma de detectar esas imágenes falsas está sorprendentemente basada en herramientas usadas por los astrónomos para estudiar galaxias. En este caso esas técnicas permiten analizar la consistencia de la luz reflejada en los globos oculares.
El fallo. Según ese estudio, liderado por el estudiante Adejumoke Owolabi y tutelado por su profesor de astrofísica, el Dr. Kevin Pimbblet, estudiar los reflejos de la luz en los ojos ayuda a detectar deepfakes. Normalmente los dos ojos reflejan de la misma forma el reflejo de las fuentes de luz, pero en imágenes creadas por IA no se toma en cuenta ese hecho, y suele haber incosistencia en el reflejo en cada ojo.

Jugando a encontrar diferencias. Aunque en muchos casos es fácil ver a simple vista las diferencias en la reflexión de la luz en los ojos, la técnica astronómica ayuda a encontrar y cuantificar esas incosistencias. Owolabi desarrolló una técnica para detectar automáticamente esas diferencias analizando las características morfológicas de los reflejos mediante índices para comparar la similitud entre los globos oculares izquierdo y derecho.
Coeficiente de Gini. La herramienta desarrollada hace uso del llamado coeficiente de Gini, que tradicionalmente se ha usado para medir la distribución de luz en imágenes procedentes de galaxias, y que permite evaluar la uniformidad de las reflexiones. En el caso de esos estudios, como indicaba Pimbblet, se miden las formas de las galaxias, si son compactas, simétricas y la distribución de la luz.
Útil... por ahora. La herramienta parece útil, y se suma a otras técnicas que en los últimos meses tratan de ayudarnos a detectar deepfakes. El problema es que una vez se ha sabido que los modelos de IA generativa tienen este problema, sus creadores los modificarán para corregirlo y hacer esos deepfakes aún más difíciles de detectar.
Las marcas de agua como alternativa. Frente a estas técnicas, parece que la opción más interesante de momento es generar esas marcas de agua invisibles que identifiquen las imágenes generadas por IA como tales. Hay diversos movimientos diversificados en este sentido, y queda por ver si acaban convirtiéndose en la norma.
Imagen | Adejumoke Owolabi
Ver 3 comentarios
3 comentarios
p2dzca
El método es interesante, pero no es muy útil porque genera falsos positivos y falsos negativos. Por otra parte, como se indica en el artículo, es cuestión de poco tiempo entrenar a la IA generativa para no cometer fallos en los reflejos de los ojos.
Recuerdo que cuando se empezaron a vender fotocopiadoras en color, bancos emisores de moneda y empresas fabricantes se pusieron de acuerdo rápidamente para evitar que se copiaran billetes (posteriormente se añadió a escáneres y programas de edición de imágenes). Con la IA, no hay voluntad de legislar.
Usuario desactivado
Que interesante que se use el coeficiente de Gini, inventado por el estadistico Corrado Gini para medir la desigualdad de la distribucion de la riqueza.
Como apuntan otros aqui mismo, es cuestion de tiempo que las IA corrijan este error. Las IA actuales son una acumulacion de parches sobre parches... como los sistemas operativos :-)
theprobe
Despite the prevalence of sexualised deepfake content, particularly targeting women, legal frameworks across countries remain inconsistent and inadequate to curb this deeply harmful issue.
Swift's case provided a wake-up call to how easy it is for people to take advantage of generative AI technology to create fake pornographic content without consent, leaving victims with few legal options and experiencing psychological, social, physical, economic, and existential trauma.