Determinar si una foto o un vídeo es real o, por el contrario, se trata de un complejo 'deepfake' es cada vez más complicado: cada vez es más fácil acceder a las herramientas de software que permiten generarlos (y éstas son cada vez más fáciles de usar).
Con el objetivo de frustrar la propagación de esta clase de material, un equipo de investigadores de la Facultad de Ingeniería de la Univ. de Nueva York ha creado una técnica experimental, basada en inteligencia artificial, que permite verificar la autenticidad de las imágenes desde el mismo momento en que se toman, y durante su envío y publicación definitiva.
Redes neuronales y marcas de agua
El objetivo principal del proyecto era demostrar que incorporar machine learning al procesamiento de la imagen que tiene lugar dentro de la cámara no iría en detrimento de la calidad de la foto visible. A cambio, según sus creadores, este sistema aumenta en entre un 45% y un 90% la probabilidad de detectar la manipulación.
Pawel Korus, uno de los investigadores, explica que recurren a una red neuronal que genera e inserta sobre la marcha, en el momento en que se toman las fotos, elementos similares a 'marcas de agua' digitales.
"[Dichas marcas] a diferencia de las técnicas usadas con anterioridad, pueden revelar no sólo la existencia de una manipulación en las fotos, sino también su carácter".
Lo que proponen, en resumen, es dejar el proceso de 'revelado' en manos de una red neuronal. Así, se logra que los mismos sensores que interpretan la luz que llega a la lente y la convierten en una imagen de alta calidad también están capacitados para marcar el archivo con indicadores indelebles cuidadosamente elaborados que permitan su comprobación posterior.
Además, según explica Nasir Memon, el co-autor de la investigación, las marcas "pueden sobrevivir al post-procesamiento" -al uso de compresores de imagen, e incluso tras su publicación en redes sociales-, pero "son muy frágiles cuando se trata de modificaciones: si se altera la imagen, se rompe la marca de agua".
Memon afirma que con esta optimización para el análisis forense se podría contribuir a aclarar la línea entre lo real y lo falso:
"Apostamos por un enfoque proactivo en lugar de limitarnos a generar imágenes con buena calidad visual y confiar en que después las técnicas forenses funciones a posteriori".
"Tenemos la oportunidad de cambiar radicalmente las capacidades de la próxima generación de dispositivos en lo referido a la autentificación de imágenes".
Sin embargo ambos investigadores de la NYU, que presentarán su trabajo en la IEEE International Conference on Computer Vision and Pattern Recognition del mes que viene, hacen hincapié en que no existe una solución definitiva para tratar con el problema de la manipulación de imágenes y los deepfakes.
El software desarrollado hasta ahora por Korus y Memon es de código abierto y está disponible en GitHub.
Vía | ScienceDaily
Imagen | Derpfakes
Ver 0 comentarios