Getty Images demandó a Stability AI —responsables de Stable Diffusion— hace meses. La conocida agencia de imágenes había detectado que parte de su catálogo había sido utilizado para entrenar este modelo de IA generativa, y detonó un debate que nos ha acompañado todo el año. Esa demanda no ha servido de mucho de momento, así que los artistas han tomado otro camino. Uno mucho más ingenioso.
Nightshade. Así se llama la nueva herramienta creada por un grupo de académicos como parte de un reciente estudio. Con ella los artistas pueden "envenenar" sus obras para que si alguien las usa para entrenar sus modelos de IA generativa, las imágenes que luego generen esos modelos no respondan al 'prompt' de los usuarios.
Glaze. Ben Zhao, profesor de la Universidad de Chicago, es el máximo responsable tanto del desarrollo anterior como de Glaze, otra herramienta que permite que los artistas "enmascaren" su estilo personal para evitar que sea plagiado por las IAs generativas. En este caso lo que hace la herramienta es cambiar los píxeles de las imágenes de forma muy sutil e invisible para el ojo humano. Aún así, eso permite manipular los modelos de aprendizaje automático para que interpreten la imagen como algo distinto a lo que realmente se muestra.
Corrompiendo el arte para salvarlo. Estas herramienta se aprovechan del hecho de que estos modelos de IA se entrenan con gigantescas cantidades de datos. Las imágenes a las que se les aplican estas herramientas acaban confundiendo esos procesos de entrenamiento. Los artistas pueden así subir sus obras online y protegerlas contra posibles empresas que las utilizan para entrenar sus modelos.
Pides un gato y te crea un perro. Con Nightshade y Glaze se consigue que los modelos actúen de forma defectuosa: cuando uno les pide un gato pueden crear un perro, y cuando pide un coche puede generar una vaca. En el estudio se ve cómo los modelos corrompidos hacen cosas que no deberían, lo que perjudica su uso. Eliminar las imágenes modificadas es muy difícil, ya que las empresas que las acaban usando deben encontrarlas y borrarlas de forma independiente.
Pero eso genera otros problemas. Estas herramientas podrían ser utilizadas con fines maliciosos, pero según Zhao para lograrlo se necesitarían miles de imágenes corruptas y modelos muy potentes. Los expertos, eso sí, advierten de que es necesario implementar defensas tanto para esas herramientas como para los grandes modelos que pueden llegar a recolectar imágenes sin permiso para ser entrenados.
Seguimos sin saber cómo se entrenan las IAs. Estas herramientas son un síntoma más del problema que se está viviendo con la IA generativa. Tanto ChatGPT como Stable Diffusion y sus alternativas han sido entrenados con vastas cantidades de información, pero no está claro con seguridad qué autores y artistas podrían ver su trabajo utilizado para esos procesos. Las demandas y críticas se acrecientan, y esta singular batalla entre quienes ofrecen estos modelos y los creadores de los contenidos no parece tener solución sencilla.
Imagen | Xataka con Bing Image Creator
Ver 20 comentarios