El problema en Corea del Sur ya venía de lejos. Ahora todo ha saltado por los aires con la nueva tecnología
A veces no somos conscientes de los peligros que implican muchas de las herramientas de software que aparecen bajo la coletilla “gratis”. Sin ir más lejos, el pasado mes de agosto se volvió viral una de esas aplicaciones de efecto “wow” instantáneo: una app gratis que permitía crear deepfakes en tiempo real. El problema es que lo que tú te imaginas como un simple pasatiempo o entretenimiento, puede ser un arma terrorífica en otras manos. Sabíamos de los problemas que acompañan a las deepfake, pero en Corea del Sur ha explotado.
Deepfake en las escuelas. Cuando se anunció que la policía investigaba redes de pornografía falsa a través de las deepfake en dos universidades de Corea del Sur, la periodista local Ko Narin decidió investigar por su cuenta. Hace unas semanas publicó en un reportaje lo que había encontrado: docenas de grupos de chat en Telegram donde los usuarios compartían fotos de mujeres que conocían “convertidas” en estrellas del porno a través de las deepfake.
El trabajo de Narin no solo mostraba que había chats de estudiantes universitarias, también había salas privadas dedicadas a institutos e incluso colegios con menores, algunas con hasta 220.000 miembros, espacios virtuales denominados “salas de humillación” o “salas de amigos de amigos” sujetos a estrictas condiciones de acceso. Un reportaje que ha conmocionado al país, donde se apunta a todos los estamentos, además de la aplicación Telegram.
La primera piedra. Todo comenzó hace varios años. En 2020, mientras las autoridades surcoreanas perseguían una red de chantaje que obligaba a mujeres jóvenes a hacer vídeos sexualmente explícitos para que los espectadores pagaran por verlos, encontraron algo más turbio en las redes sociales: imágenes pornográficas con rostros de otras personas adheridos.
Las autoridades entonces no sabían qué hacer con aquellos primeros intentos de pornografía deepfake. Al final, la Asamblea Nacional promulgó una ley vagamente redactada contra quienes la hicieran y distribuyeran. Aquello no impidió una nueva ola de delitos utilizando tecnología de inteligencia artificial, la misma que ahora, y después de varias investigaciones, parece haber conformado toda una cultura misógina online en el país.
De paso, se vuelve a cuestionar la figura de la mujer en la sociedad.
La última redada. La semana pasada, la agencia de policía nacional dijo que estaba investigando 513 casos de pornografía deepfake en la que los rostros de mujeres y niñas reales se superponían digitalmente a un cuerpo sin su conocimiento.
Eso representa un aumento del 70% en los casos en solo 40 días desde la última investigación, subrayando la lucha del país para controlar el uso de la tecnología digital para abusar sexualmente de mujeres y niñas.
Molka. Han pasado varios años desde que se conociera el término popular con el que los surcoreanos denominan a la grabación encubierta del cuerpo de las víctimas, tanto mediante móviles como con diminutas cámaras ocultas. Tanto es así, que en 2020 el presidente de la nación reconoció que era “parte del día a día” de la vida de las ciudadanas. Según datos de la policía, en 2010 hubo alrededor de 1.100 denuncias por crímenes “molka”, y para 2018 estaban en 6.800 casos anuales. Y si en 2006 el porcentaje de crímenes sexuales por cámaras espías era el 3.6%, en 2015 ya eran casi la mitad de los crímenes.
El país veía que se estaban incrementado los crímenes sexuales, aunque no estaba claro cuánto porcentaje se debía a un aumento del número de incidentes o a que las coreanas estuvieran más dispuestas a denunciar. Se apuntaba a una combinación de ambas, siendo además muy importante el carácter filodigital de la sociedad de allí: por ejemplo, cuando se empezaron a vender los primeros teléfonos con cámara a principios de los 2000 las autoridades obligaron a los fabricantes que incluyeran en el diseño que, al iniciarse una grabación, el aparato emitiese ruidos perceptibles a los presentes para atajar este mismo problema.
Molka y Deepfake hoy. Han pasado varios años desde aquellas noticias sobre delitos sexuales online, y lo único que parece haber mejorado es la tecnología para difundir las imágenes. De hecho, la tecnología hoy es tan sofisticada que es difícil para la gente común distinguir que son imágenes falsas.
Mientras el país se esfuerza por abordar la amenaza, los expertos han señalado que, en Corea del Sur, el entusiasmo por las nuevas tecnologías a veces puede superar las preocupaciones sobre sus implicaciones éticas.
Misoginia. Sea como fuere, para muchas mujeres, estos deepfakes son sólo la última expresión online de una misoginia profundamente arraigada en su país, una cultura que ahora ha producido hombres jóvenes que consideran divertido compartir imágenes sexualmente humillantes de mujeres en la red. Un efecto que ha llevado en las últimas semanas a decenas de mujeres y adolescentes de todo el país a eliminar sus fotos de las redes o directamente desactivar sus cuentas por temor a ser "las siguientes".
Contaba al New York Times Lee Yu-jin, una estudiante cuya universidad se encuentra entre los cientos de escuelas secundarias, preparatorias y universidades donde los estudiantes han sido víctimas, que “la sociedad coreana no trata a las mujeres como seres humanos”. La joven se preguntaba por qué el gobierno no había hecho más “antes de que se convirtiera en una cultura digital robar fotos de amigas y usarlas para humillación sexual”.
Capital del deepfake. Actualmente, Corea del Sur ostenta el título de país más atacado por la pornografía deepfake. Sus cantantes y actrices constituyen el 53% de las personas que aparecen en deepfakes en todo el mundo, según un informe de 2023 de Security Hero, una startup estadounidense centrada en la protección contra el robo de identidad.
Paralelamente, la policía ha iniciado una investigación sobre Telegram y el regulador de medios del país planea mantener conversaciones con los representantes de la app de mensajería para discutir una respuesta conjunta al problema. Además, el Ministerio de Educación ha anunciado la creación de un grupo de trabajo para investigar incidentes en las escuelas, enseñar a los niños cómo proteger sus imágenes y apoyar a las víctimas.
Todo es fuerzo es poco. De hecho, según el sindicato de la Federación Coreana de Maestros, incluso los estudiantes y profesores que no se han visto directamente afectados “están experimentando un miedo y una ansiedad extremos por la posibilidad de ser utilizados para delitos sexuales o distribuidos en línea sin su conocimiento”.
Imagen | Andrew and Annemarie, Pixabay
En Xataka | Las naciones del mundo y sus estereotipos, vistos por Japón en este alucinante mapa de 1932
Ver todos los comentarios en https://www.xataka.com
VER 14 Comentarios