La coalición C2PA plantea una solución tecnológica prometedora añadiendo metadatos a los contenidos
Ahora queda lo más difícil: que más y más empresas adopten la especificación
Esa foto que estás viendo puede no ser real. Ese vídeo, esa canción, tampoco. Puede que esa foto, ese vídeo o esa música haya sido generada parcial o totalmente con inteligencia artificial, y el problema está ahí: en que no hay forma de saberlo, y cada vez hay más y mas contenidos de este tipo. ¿Cómo resolverlo?
C2PA. La llamada Coalition for Content Provenance and Authenticity (C2PA) se ha convertido en una de las opciones más interesantes para ofrecer algo cada vez más importante: información sobre el origen de una imagen. La trazabilidad que la tecnología posibilita en muchas industrias —es posible seguirle la pista a ese filete que te comiste ayer gracias a ella— es una prometedora opción para los contenidos que inundan internet.
Cada vez más empresas implicadas. Adobe, Amazon, BBC, Google, Intel, Meta, Microsoft, Publicis, OpenAI, Sony y TruePic son las grandes integrantes de esta alianza que tiene como objetivo "proporcionar a los grupos editoriales, los creadores, y los consumidores la capacidad de trazar el origen de distintos tipos de medios".
Etiquetas con un montón de información. Las tecnologías de C2PA —con la especificación Content Credentials a la cabeza— permiten añadir una especie de "etiquetas" a los contenidos, metadatos que permiten revelar su origen, pero también todas las etapas por las que esos contenidos han pasado. No solo cómo han sido creados —¿una captura de una cámara? ¿un prompt de IA?— sino cuándo, quién y cómo las modificó —¿alguien la subió a Instagram aplicando un filtro? ¿Alguien la editó con el editor mágico de Android, borró objetos y puso un cielo distinto?—.
Son (de momento) invisibles, pero muy completas. Esas etiquetas pueden ser luego consultadas con una sencilla aplicación que nos "chivará" todo sobre la imagen: tanto su procedencia como sus posibles variantes. Uno esperaría una especie de "sello" identificativo por ejemplo para imágenes generadas por IA que permitiera rápidamente comprobar su origen, pero de momento esa visibilidad no existe.
Una gran idea para combatir los deepfakes. La propuesta de C2PA es una potencial solución al inquietante problema que tenemos con las imágenes generadas por IA. No tanto por ilustraciones virales e inofensivas —que también—, sino por la enorme cantidad de deepfakes (imágenes falsas) que se están utilizando para influir en la opinión pública y que por ejemplo pueden desequilibrar procesos electorales como el que próximamente se celebrará en las elecciones presidenciales de Estados Unidos.
Pero esto va lento. Aunque la idea es prometedora, su implementación es lenta. Por ejemplo, solo unas pocas cámaras de fotos integran información C2PA en cada foto —la Leica M11-P o la Sony Alpha 7 IV, por ejemplo—, pero quienes deberían hacerlo cuanto antes son las cámaras de nuestros móviles, y eso de momento no ocurre, como indican en The Verge. No está claro que eso vaya a pasar, de hecho, pero sería un paso fundamental para que esta propuesta triunfara. Google es miembro de la coalición, pero Apple, que teóricamente debería estar muy a favor del esfuerzo, no. También es especialmente importante que las grandes redes sociales se unan al esfuerzo: en Meta lo están intentando hacer ya, pero en X de momento no.
Pasito a paso. Lo cierto es que en los últimos meses estamos viendo avances y casos en los que algunas plataformas comienzan a implantar estas medidas. Google ya habló de ellas y YouTube acaba de hacerlo con una etiqueta llamada "capturado con una cámara" que identifica vídeos subidos en la plataforma con su metraje y sonido inalterados. OpenAI también ha comenzado a adoptar C2PA en DALL-E 3, e incluso TikTok ha comenzado a plantear su solución fuera de la coalición C2PA. Y mientras, la UE avisa: las empresas tecnológicas como Google o Meta deben comenzar a etiquetar contenidos generados por IA para evitar campañas de desinformación.
Imagen | Dcyberskull con Midjourney
Ver todos los comentarios en https://www.xataka.com
VER 0 Comentario