Vídeos manipulados usando herramientas de inteligencia artificial para mostrar algo que no es real. De eso se tratan los 'deepfakes', esa tendencia que surgió en un inicio para crear vídeos porno falsos, donde se ponía el rostro de actrices famosas en los de actrices porno, y que con el tiempo ha saltado a diversas áreas que van desde el simple entretenimiento hasta cosas más serias y preocupantes, como la manipulación política.
A pesar de los intentos por prohibirlos, con subeddits cerrados, prohibiciones en redes sociales y webs porno y hasta demandas por parte de algunas actrices afectadas, los 'deepfakes' están aquí y sus efectos podrían ser desastrosos, ya que dan fuerza a 'fake news' y son ideales para intervenir en asuntos políticos. Hoy tenemos una nueva muestra de sus capacidades, y como veremos a continuación es algo realmente impresionante y aterrador.
No, Jennifer Buscemi no existe, aunque parezca real
El siguiente vídeo fue creado por el usuario de Reddit conocido como VillainGuy, quien lo publicó a inicios de este año. El vídeo nos muestra al actor Steve Buscemi en el cuerpo de la actriz Jennifer Lawrence durante una conferencia en los premios Golden Globe de 2016. Lo impresionante del vídeo es el nivel de sincronía entre ambos actores, llegando a un punto que incluso podríamos pensar que es real si no supiéramos que estamos viendo algo físicamente imposible.
Según la información, VillainGuy habría creado el vídeo usando la herramienta gratuita 'faceswap' y se habría dedicado a entrenar la inteligencia artificial con contenido multimedia en alta resolución de Buscemi. Después de varias horas de codificación y renderizado en un ordenador con GPU y procesador de gama alta, nació 'Jennifer Lawrence-Buscemi'.
El vídeo estalló hoy en redes sociales tras algunos señalamientos por parte de legisladores de los Estados Unidos, quienes alertaron sobre el peligro de los vídeos deepfakes ahora que se acercan las elecciones de 2020. De hecho, hay informes que apuntan a que el Departamento de Defensa de los Estados Unidos ya está trabajando con investigadores con el fin de encontrar la forma de detectar cuando un vídeo es falso o ha sido manipulado con herramientas como 'faceswap'.
Hoy día, se dice que un grupo de investigadores ya han desarrollado una herramienta que detecta cuando se trata de un vídeo deepfake, la cual se basa en el conteo, frecuencia y ritmo de los parpadeos que tiene la persona del vídeo, lo cual aseguran se ha convertido en la técnica más eficiente hasta el momento con un 95% de efectividad.
Siwei Lyu, profesor asociado de ciencias de la computación de la Universidad de Albany, comentó: "Un ser humanos adulto y sano parpadea de forma regular entre cada 2 y 10 segundos, y un solo parpadeo toma entre una décima y cuatro décimas de segundo. Eso es lo que sería normal ver en un vídeo de una persona que habla, pero no es lo que sucede en muchos videos 'deepfake'". Lyu también señala que con el paso del tiempo los vídeos deepfake perfeccionarán sus técnicas y cada vez será más difícil identificarlos.
Otro de los aspectos que preocupan de esta tecnología, más allá de los vídeos porno y las fake news, es que son posibles herramientas de chantaje para gente inocente, gente que no tiene los recursos para frenar la difusión de estos vídeos y que pueden desde dañar su imagen hasta convertirse en posibles sospechosos de un crimen.
Los políticos y los personajes famosos tienen la posibilidad de contratar un equipo que se haga cargo ante casos de difamación a través de vídeos deepfake, pero un ciudadano común no. Por ello, ahora mismo son la parte más vulnerable ante la explosión de esta tecnología. Sí, estamos ante una aterradora forma de dañar a personas inocentes por medio de vídeos falsos, los cuales tienen la capacidad de mostrarlos participando en actos violentos y criminales que nunca han cometido.
Ver 19 comentarios
19 comentarios
whateverx
+1 al primer comentario. Es muy preocupante que salgan este tipo de cosas a la luz sin darle contexto a la gente. Por que muchos políticos , o figuras publicas con poder pueden decir que el video en el que esta "haciendo esas cosas" es un 'fake'.
Porque en muchos casos al final, gran parte de la justicia a estos personajes, se aplica en base al juicio publico y social.
Hace tiempo lei a un analista que aseguraba (y con argumentos muy bien fundamentados) que la razón de que muchos políticos involucrados en casos de trata y abuso de personas y menores en USA especialmente, estaban haciendo "ruido" sobre los 'fake vids' por que anticipaban que si saliera evidencia contra ellos, ellos podrian argumentar que eso era solo un ataque politico (ejemplo: liddle adam schiff).
Y que haces cuando realmente no necesitas ser declarado inocente, si no que las masas te perciban inocente y de esa manera te salgas con la tuya.
Alguien ha notado patrones en noticas que van y vienen con un fin? Las tendecias? Digo al final todo viene en gran medida de USA, lo que hacen este tipo de medios, digase xataka es traducirlo (a medias a veces) y hacer eco de lo mismo, con un lavado de cara y de palabras que se adecuen a el estilo del medio. Solo eso
Muchos dicen: cuando el rio suena, es que agua lleva.. Sera?
l0ck0
pues si la unica forma de saber si es real o falso a dia de hoy es contar el numero de parpadeos mal vamos jajajaj le pones a la programacion del sistema que parpadee el numero de veces que se considere creible y solucionado jajaj
Gonzalo
Pues no acabo de entender el tema de los parpadeos para detectar un fake, supongo que será tan "sencillo" saltarse el control como hacer el faceswap sincronizando los parpadeos de la persona del video original con la cara superpuesta.
yavi
Ha ganado como actriz, Buschemi es un crack, ahora para ligar igual ha bajado algún punto porque feo es un rato el hombre.
Por cierto, tiene una sombra en el cuello que le delata, es muy rara.
piratastur
Al final pasa como lleva pasando mucho años en los trucajes fotográficos, las sombras tienden a ser demasiado raras, ahí queda mucho por trabajar para que pueda colar si se mira con ojo crítico.
mernelex
Nunca me ha gustado demasiado la cara de Jennifer Lawrence, me parecía un poco rechoncha y poco atractiva (aunque innegablemente guapa), pero este video me ha hecho verlo desde otra perspectiva y he acabado pensando, "Pues no está tan mal".
paganini24
...del peligro de los 'deepfakes'
Usuario desactivado
está pa darle ahora a buscemi XD
thyranus
Así como ésta herramienta puede ser usada para acusar a personas inocentes, también puede ser usada al revés, se podría poner en duda la veracidad de cualquier video que sea presentado como prueba acusatoria, pudiendo favorecer al acusado o, al menos, restándole credibilidad a dicho video.
sologizmos
me quieren explicar cual es el fin de esta soberana tonteria?
a chavales supongo, o que, fomentar el cambio de genero?, lo dicho, SOBERANA TONTERIA esto de las deepfakes
Mr.Floppy
Joder, qué creepy el resultado del vídeo (es una pasada) y el futuro que se atisba.
Como ya han dicho, no es sólo el uso que se le pueda dar para crear "fake news", es que al ser tan buenos y llegar a parecer reales, con la excusa de "son fake news" te quitas de encima un escándalo, hecho delictivo o cualquier cosa real que hasta hecho y de la que te acusen y tan ancho (hablando de figuras públicas con poder).
tboneporn
Pues he entrado a tomarme un cafe un bar y he comprobado como se distorsiona la realidad sin necesidad de tecnologia puntera,ahí andaba "Peseto Loco",enemigo de la libertad y la propiedad privada,siendo defendido por una recua de pseudo-periodistas que Dios confunda,mientras amenazaba a la ciudadania.Aquí todavia no es necesaria el cambio de jetas y esas cosas,para eso ya tenemos una buena cantidad de canales de extremistas,dispuestos a distorsionar lo que haga falta,a un buen precio.
El de la libertad.
Nauhr
"Un ser humanos adulto y sano parpadea de forma regular entre cada 2 y 10 segundos, y un solo parpadeo toma entre una décima y cuatro décimas de segundo. Eso es lo que sería normal ver en un vídeo de una persona que habla, pero no es lo que sucede en muchos videos 'deepfake'"
Espero que esta sea la mentira que cuentan para despistar a los que realmente tienen intención de manipular con este tipo de videos. Porque si es la solución real no se tarda ni 5 minutos en corregir eso...