Los deepfakes, las imágenes falsas generadas por modelos de IA generativa, son cada vez más convincentes. Nos hicieron pensar que quizás el Papa iba vestido con un anorak de lo más moderno o que a Donald Trump le arrestaban a la fuerza. Cada vez hay que estar más atento a las imágenes que vemos en redes sociales, pero no solo a las que son falsas, sino a las que son verdaderas,
Persiguiendo la desinformación. Elliot Higgins es un analista de OSINT (Inteligencia Open Source). Hace unos años comenzó a reunir sus descubrimientos en un sitio web llamado Bellingcat, y desde entonces su agencia se ha convertido en referente en este campo. Investiga todo tipo de eventos, y en los últimos tiempos sabe que el reto actual en el ámbito de la desinformación lo pone la inteligencia artificial.
Engañando a dos bandas. Como afirmaba en una reciente entrevista en Wired, "cuando la gente piensa en la IA, piensa: «Oh, va a engañar a la gente para que crea cosas que no son ciertas». Pero lo que realmente está haciendo es dar permiso a la gente para no creer cosas que son verdad. O sea, justo lo contrario.
Ya no nos fiamos ni de lo que es cierto. Con tanta desinformación, los deepfakes y la IA también pueden acabar logrando que no nos creamos lo que estamos viendo y pensemos que "ah, es otra imagen generada por IA" cuando en realidad es que se trata de una imagen de y una situación legítima.
¿Real o artificial? Lo demostraba hace poco al republicar una imagen singular. Un sitio web que teóricamente detecta imágenes generadas por IA afirmaba que esa foto del periodista asediado por decenas de personas estaba probablemente generada por inteligencia artificial. Pero el problema es que la imagen era real (hay otras de ese suceso), así que ese servicio de detección fallaba.
El peligro de las máquinas identificando fotos. Estos sistemas de detección de fotos nos condicionan porque nos podemos fiar de sus conclusiones. Es lo que denunciaba recientemente una fotógrafa que manda sus fotos a Instagram y que está viendo como fotos convencionales que envía al servicio son detectadas como generadas por IA.
Pero también nosotros podemos equivocarnos. No parece que los sistemas automáticos de detección funcionen en estos casos, pero nuestros ojos también pueden engañarnos: la evolución de plataformas como Midjourney ha demostrado que el fotorrealismo que pueden conseguir estos modelos de IA generativa es asombroso, y cada vez es más difícil distinguir realidad de ficción.
Y espera, que nos queda el vídeo. En realidad las imágenes son solo parte del problema: la generación de deepfakes de personas que dicen cosas coherentes, mueven los labios de forma coherente cuando los dicen y que parecen ciertamente legítimos están perfeccionándose. Si el vídeo es falso pero razonable, podremos creerlo. Y eso hará que incluso cuando el vídeo sea real, quizás no nos lo creamos.
Imagen | Almal3003.01 con Midjourney
En Xataka | Los deepfakes que triunfan en China no son de famosos. Son de los seres queridos que murieron
Ver 10 comentarios