La foto principal de Scarlett Johansson es real. La de la persona de la derecha no. Es un deepfake generado por IA, y aunque está realmente lograda, ha sido posible detectar que había sido creada por una máquina. El método para lograr esa detección es especialmente curioso.
El secreto de sus ojos. Investigadores de la Universidad de Hull han desarrollado un novedoso método para detectar imágenes creadas por modelos de IA generativa. La clave, aseguran, está en los ojos de esas imágenes de personas. Y en concreto, en la forma en la que reflejan la luz.
Una técnica astronómica. La forma de detectar esas imágenes falsas está sorprendentemente basada en herramientas usadas por los astrónomos para estudiar galaxias. En este caso esas técnicas permiten analizar la consistencia de la luz reflejada en los globos oculares.
El fallo. Según ese estudio, liderado por el estudiante Adejumoke Owolabi y tutelado por su profesor de astrofísica, el Dr. Kevin Pimbblet, estudiar los reflejos de la luz en los ojos ayuda a detectar deepfakes. Normalmente los dos ojos reflejan de la misma forma el reflejo de las fuentes de luz, pero en imágenes creadas por IA no se toma en cuenta ese hecho, y suele haber incosistencia en el reflejo en cada ojo.
Jugando a encontrar diferencias. Aunque en muchos casos es fácil ver a simple vista las diferencias en la reflexión de la luz en los ojos, la técnica astronómica ayuda a encontrar y cuantificar esas incosistencias. Owolabi desarrolló una técnica para detectar automáticamente esas diferencias analizando las características morfológicas de los reflejos mediante índices para comparar la similitud entre los globos oculares izquierdo y derecho.
Coeficiente de Gini. La herramienta desarrollada hace uso del llamado coeficiente de Gini, que tradicionalmente se ha usado para medir la distribución de luz en imágenes procedentes de galaxias, y que permite evaluar la uniformidad de las reflexiones. En el caso de esos estudios, como indicaba Pimbblet, se miden las formas de las galaxias, si son compactas, simétricas y la distribución de la luz.
Útil... por ahora. La herramienta parece útil, y se suma a otras técnicas que en los últimos meses tratan de ayudarnos a detectar deepfakes. El problema es que una vez se ha sabido que los modelos de IA generativa tienen este problema, sus creadores los modificarán para corregirlo y hacer esos deepfakes aún más difíciles de detectar.
Las marcas de agua como alternativa. Frente a estas técnicas, parece que la opción más interesante de momento es generar esas marcas de agua invisibles que identifiquen las imágenes generadas por IA como tales. Hay diversos movimientos diversificados en este sentido, y queda por ver si acaban convirtiéndose en la norma.
Imagen | Adejumoke Owolabi
Ver 3 comentarios