El porno generado por IA con las caras de personas reales ha llegado (y resulta que es muy rentable)

"Me venden en contra de mi voluntad. No consentí que me sexualizaran". La reflexión, dura, rotunda, no es de una víctima de trata, ni de pornovenganza, ni de un hackeo con robo de fotos intimas incluido. Su autora es Sweet Anita, una joven streamer inglesa con 1,9 millones de seguidores en Twitch. Y lo que denunciaba de esa forma en febrero —durante una charla con la NBC— es la práctica que en cierto modo la ha elevado a una nueva categoría de víctima: la de quienes por obra y arte de la IA se ven "protagonizando" contenido porno sin su consentimiento.

El de Anita no es un caso único.

Al contrario. Muestra cómo, cada vez más, los deepfakes están sirviendo para dar rienda suelta en Internet a los fetiches más turbios… Tanto los protagonizados por cantantes, actrices o streamers famosas, como por personas anónimas.

¿Un problema solo de famosas? Lo de los deepfakes y el porno no es algo nuevo. El problema viene de unos cuantos años atrás y algunas celebrities, como Scarlet Johansson, Emma Watson o Gal Gadot llevan ya tiempo lidiando con él. Tanto, que la intérprete de Black Widow ha llegado a dar por "causa perdida" el "tratar de protegerse de la depravación de Internet". A medida que la IA ha ido evolucionando, ofreciendo herramientas más sofisticadas, accesibles y capaces de generar piezas más realista, lo de los deepfakes ha dejado de ser sin embargo una amenaza exclusiva de las cantantes celebérrimas y estrellas de Hollywood.

La experiencia de las streamers. El efecto de los deepfakes lo han padecido también en sus carnes streamers como Aweet Anita o QTCinderella, conocida por sus contenidos sobre videojuegos y repostería, pero que acabó "protagonizando" un vídeo sexual generado con ayuda de la inteligencia artificial.

"Verte desnuda en contra de tu voluntad y difundida por la Red es como sentirse violada", confesó, sumándose así a la denuncia de otras celebridades, como Helen Mort. El uso de deepfakes ha llegado a protagonizar una encendida polémica en Reino Unido después de que otro streamer reconociese haber pagado por contenido en una página que mostraba vídeos de varias compañeras.

Cada vez más sencillo y accesible. He ahí la clave, como apuntan desde la cadena NBC News, que ha realizado un estudio para comprobar lo fácil que resulta acceder a deepfakes. Y lo de "fácil" es extensible tanto a vídeos porno, a los que se puede acceder de forma más o menos sencilla con una simple búsqueda en Google, como a los propios autores de las piezas, que recurren a la plataforma Discord para anunciar la venta material... O servicios para creaciones personalizadas.

A medida que los avances en IA han hecho que su uso resulte más sencillo y accesible, más lucrativo se ha vuelto también generar deepfakes sexuales. La NBC localizó por ejemplo a una persona que se ofrecía a través de Discord para elaborar deepfakes de cinco minutos protagonizados por una personal girl, cualquiera con menos de dos millones seguidores en Instagram. La tarifa: 65 dólares. "Cada vez hay más gente en el punto de mira. Oiremos a muchas más víctimas que son gente normal y corriente", explica a la cadena británica Noelle Martin, abogada.

Tirando de tarjeta... y suscripciones. El problema de los deepfakes es lo suficientemente grave como para haber derivado en una "economía" propia, con webs especializadas en las que se comparten vídeos breves a modo de gancho para que los usuarios pasen por caja si quieren ver las versiones extendidas, servicios de suscripción o pagos con Visa, Mastercard o criptomonedas. Además de las webs, hay creadores que aceptan preparar vídeos con una "chica personal".

Después de que NBC preguntara por la sala de chat de un autor de deepfakes, Discord suprimió el servidor por violar sus reglas de contenidos. La compañía asegura que prohíbe de forma expresa "la promoción o intercambio de deepfakes no consensuados". En Change hay también una campaña que ha logrado ya 52.600 firmas para cerrar una de las páginas más populares, MrDeepFakes, creada en 2018, y el resto de "webs dedicadas al abuso sexual basado en imágenes".

Algunas cifras para el contexto. En verano de 2019 Deeptrace sacó la calculadora y analizó cómo había evolucionado el volumen de deepfakes que circulaban online. Su conclusión: eran el doble que a finales de 2018. Lo más sorprendente no era sin embargo ese "boom", sino su motor: la inmensa mayoría de los vídeos, un aplastante 96%, no eran piezas políticas, sino pornográficas, muchas de ellas "protagonizadas" por actrices o cantantes famosas.

No es el único dato llamativo sobre la mesa. Una investigación de Genevieve Oh muestra que el año pasado el volumen de vídeos subidos a una popular página de deepfakes casi multiplicó por siete al de 2018 —de 1.900 a más de 13.000—, lo que facilitó que superase los 16 millones de visitas mensuales. El uso creciente de los vídeos manipulados ya ha captado la atención de los legisladores.

La IA y el porno, más allá del deepfake. La relación entre la inteligencia artificial y el porno va más allá de los deepfakes. Uno de los mejores ejemplos es Unstable Diffusion, que actúa como un foro en torno a sistemas de IA creados para generar contenido visual para adultos. O, como se define en Discord, "un servidor dedicado a la creación e intercambio de NSFW [Not safe for work] generados por IA" y que aloja contenidos de diferentes categorías, lo que incluye desde porno para hombres o mujeres a piezas hentai, furry o BDSM, entre otros.

Una de las peculiaridades de Unstable Diffusion es que ha mostrado el negocio potencial que puede representar este tipo de servicios con IA. A finales de 2022, cuando Kickstater decidió clausurar su campaña de financiación colectiva, sus impulsores habían recaudado más de 56.000 dólares de 867 patrocinadores.

En Xataka: DeepNude: la polémica aplicación que "desnuda" a cualquier mujer mediante inteligencia artificial

Ver todos los comentarios en https://www.xataka.com

VER 20 Comentarios

Portada de Xataka