Corea del Sur muestra el camino para poner fin al grave problema con los deepfakes sexuales en las escuelas. Recientemente han aprobado un proyecto de ley pionero en todo el mundo donde los prohíben directamente. Pero no solo su creación, también la distribución e incluso su visionado.
Qué dice la nueva ley coreana. La nueva ley coreana, aprobada a finales de septiembre, impone multas de hasta 30 millones de won (unos 20.000 euros) o tres años de cárcel a quienes consumen o guardan el contenido sexual de menores no consentido.
Según explica la BBC coreana, en la ley se expone que "si una persona posee, compra, almacena u observa un material ilegal de delitos sexuales sintéticos será castigada con prisión de hasta 3 años".
El baremo es amplio, ya que se contemplan desde multas económicas por ver un vídeo hasta quienes compran a sabiendas que se trata de un deepfake sexual sobre una menor que no ha dado su consentimiento ni tiene por qué ser consciente. Un delito que será penado con años de cárcel.
Hasta la fecha, la ley coreana de protección contra los deepfakes imputaba hasta cinco años de cárcel (ahora serán siete) y multas de hasta 50 millones de wones a quienes creaban y difundían estos deepfake. Ahora se extenderá a también a quienes los visualizan.
La nueva ley empezará a aplicarse en el momento en que el presidente coreano Yoon Suk Yeol firme el texto aprobado.
Castigos simplemente por ver, aunque sea sin ser "a sabiendas". La diferencia entre el primer borrador y la ley aprobada tras las enmiendas está en el concepto de "a sabiendas".
Inicialmente se debatió sobre el supuesto caso en que un usuario recibe un vídeo y lo ve sin saber de qué se trata. Para estos casos se añadió una cláusula de "a sabiendas".
Sin embargo, hubo el debate sobre definir bien qué significaba tener "conocimiento" de que un vídeo era un deepfake sexual. Esta falta de concreción podría llegar a ser utilizada por los malhechores para excusarse, argumentando que no eran conscientes.
Para evitar estos casos, la ley aprobada finalmente eliminó esa parte. El resultado es un castigo genérico simplemente por ver un deepfake, quedando en manos de los jueces hasta qué punto aplicar las distintas condenas.
España también es pionera contra los deepfakes. El pasado mes de junio, el Gobierno aprobó el 'anteproyecto de Ley para la protección de las personas menores de edad en los entornos digitales'. Se trata de una normativa con la que se regulan específicamente los deepfakes pornográficos y se concretan varios delitos asociados a su uso.
En el caso español los deepfakes sexuales se definen como "la difusión, sin autorización, de imágenes o audio generado por inteligencia artificial o cualquier otra tecnología", en "situaciones de contenido sexual gravemente vejatorias". Además España regula el 'grooming' como un agravante en distintos delitos contra la libertad sexual de menores.
Difundir material ilegal es muy diferente a verlo. En las leyes europeas existe la responsabilidad penal por la difusión de contenido ilegal o contenido sensible, pero un caso distinto es el simple visionado.
Pongamos el caso, distinto pero también complejo, de las descargas sin derechos. El hecho de ver una película o partido de fútbol no constituye un hecho delictivo, aunque LaLiga se empeñe en lo contrario. El simple hecho de ver un contenido así no se castiga en el Código Penal.
Aunque la Policía europea aboga por una protección del menor cada vez más extrema, por el momento no se plantea que la solución para el problema de los deepfakes pase por castigar su visionado. Sí se ha aumentado el castigo de la difusión, pero no se ha abierto un debate sobre el visionado que sería extremadamente complejo de regular y tendría numerosas aristas.
En Corea del Sur es una emergencia. La ley coreana, que todavía tiene pendiente empezar su aplicación, es contundente. El castigo al visionado o la descarga de estos deepfakes sexuales es para intentar atajar el problema de raíz. Un problema que se ha convertido en una epidemia social.
Solo durante el mes de septiembre, Corea del Sur recibió 367 denuncias por el uso de deepfakes sexuales, siendo el 83,7% adolescentes. Y más preocupante es que el 18% de estas denuncias iban hacia menores de 14 años, a los que ni siquiera se les puede castigar penalmente.
Afortunadamente en España parece que la situación no ha llegado a este nivel. No como para perseguir el visionado. Pero en Corea, incluso organizaciones como Human Rights Watch han dado la voz de alarma. Un perfecto ejemplo de cómo la tecnología mal utilizada puede suponer un grave problema social.
Imagen | Dynamic Wang
Ver 12 comentarios