El último temazo de Drake y The Weeknd es estupendo, pero no era de ellos, lo hizo una IA. La foto que ganó el Sony World Photography Award es espectacular, pero ni los jurados se dieron cuenta de que también había sido creado con una IA generativa. No paramos de ver imágenes, música e incluso algún que otro vídeo alucinante, y eso plantea un problema: diferenciar qué ha sido creado por el ser humano y qué ha sido creado por IA.
Una alianza por la autenticidad del contenido. Adobe lidera la llamada Content Authenticity Initiative (CAI), un consorcio de cerca de 1.000 miembros entre los que hay empresas de contenidos, startups tecnológicas o fabricantes de cámaras. ¿Su objetivo? Crear una serie de estándares que permitan confirmar la autenticidad del contenido digital.
Deepfakes y contenidos falsos. La empresa creó el grupo en 2019, pero es ahora cuando su labor se ha vuelto más importante que nunca ante la avalancha de contenidos generados por IA. Sobre todo en lo que respecta a los deepfakes que se salen del ámbito de los memes y que pueden ayudar a la desinformación. Las imágenes del Papa o de Donald Trump que se hicieron virales son una buena demostración del problema. ¿Qué hacer al respecto?
Marcas de agua. La solución que propone el CAI es usar un "hash criptográfico de recursos para proporcionar firmas verificables y a prueba de manipulaciones", que luego se modificarían para reflejar cualquier alteración. El grupo compara la norma con una "etiqueta nutricional" para los contenidos digitales. En esencia sería algo similar a una marca de agua invisible que se aplicaría a todo contenido generado por IA para poder confirmar si está o no generado por este tipo de sistemas.
Contenidos con historial médico. Esas marcas de agua criptográficas hacen que al crear un contenido el autor pueda elegir si preservar la atribución o permanecer en el anonimato. Incluso al editar por ejemplo imágenes con Photoshop se pueden capturar metadatos y se va creando una especie de "historial de alteraciones" al contenido para saber cómo y cuándo ha sido modificado. Ese contenido luego se puede consultar, historial incluido, con herramientas como Verify.
Pero hay un reto mayor. La solución tecnológica existe, pero la medida solo será efectiva si se aplica de forma masiva. Eso significa que este "etiquetado" funcionará solo si un gran número de empresas lo aplican. Ahí es donde Adobe, referente en el mercado, puede ayudar. Fabricantes como Nikon o Leica ya han accedido a integrar la tecnología en algunas de sus cámaras, y la CAI espera que miembros como Associated Press o el Washington Post implementen este estándar.
Open Source e interoperable. El trabajo de la CAI es además un desarrollo Open Source que permite usar herramientas interoperables. Su propuesta se ajusta a las especificaciones que en 2022 emitió la Coalition for Content Provenance and Authenticity (C2PA), un organismo que precisamente trabaja en esta misma dirección. En él que están integrados empresas como la propia Adobe, la BBC, Intel, Microsoft o Sony, y hace ya dos años que la especificación está disponible en GitHub. Como en el caso de la CAI, el objetivo es "proporcionar a editores, creadores y consumidores la posibilidad de rastrear el origen de distintos tipos de soportes".
No todo es de color de rosa. Neal Krawetz, experto en ciberseguridad, daba una visión algo distinta de estas iniciativas en Hacker Factor. Según él la CAI no hacía mucho más que gestionar su web, y criticaba que tanto CAI como C2PA son consorcios cerrados a la participación independiente. Para él hay otra opción.
JPEG-FM.El JPEG Working Group que desarrolla este conocido estándar creó un grupo de trabajo llamado JPEG-FM (por Fake Media, "contenidos falsos"). El proceso es mucho más abierto y público, y el objetivo es el mismo: dar soluciones a la desinformación, alteraciones o representaciones erróneas en contenidos.
TinyEye y los hashes perceptuales. Krawezt aludía además a otra posible solución al problema. Se trata de los llamados hashes perceptivos, de los qu ehabló en una charla reciente y que son distintos a los hashes criptográficos que pretende usar Adobe. Esta es la tecnología en la que por ejemplo está basada TinyEye, una plataforma de búsqueda inversa de imágenes que entre otras cosas permite encontrar y verificar imágenes protegidas por derechos de autor.
¿Funcionará? Lo cierto es que los conceptos técnicos de ambas propuestas parecen sólidos y plantean una potencial solución al problema. Hay otras soluciones, desde luego, como el identificador de la propia OpenAI. El reto, como decíamos, es el de su aplicación masiva: si la industria (y los usuarios) no comienzan a aprovechar estas soluciones cuando estén realmente disponibles, será difícil afrontar una situación previsible: la de una avalancha de contneidos generados por IA que además serán virtualmente indistinguibles de los que puede crear el ser humano.
En Xataka | Ya hay una web que promete distinguir las imágenes reales de las generadas por IA. Obviamente, tiene truco
Ver 3 comentarios