Nos maravilla la capacidad greadora (o al menos, generativa) de motores como ChatGPT o Stable Diffussion. Y sin embargo, cada vez aparecen más voces críticas con contenidos creados por inteligencia artificial. No ya por el hecho de que estén basados en obras protegidas por derechos de autor, sino porque ya estamos viendo cómo diferenciar esas obras de las creadas por el ser humano es una tarea delicada y compleja.
En OpenAI dicen tener la solución, al menos para detectar si un texto lo ha escrito un humano o una máquina. Todo fantástico hasta que uno se da cuenta de que ahí existe un peligroso conflicto de intereses: uno en el que la misma empresa que creó el problema dice poder resolverlo.
El dilema no es en absoluto nuevo, y vuelve a recordar a la fábula del zorro vigilando a las gallinas. Vivimos un debate similar cuando en enero de 2021 asistimos a un acontecimiento insólito: Twitter, Facebook e Instagram bloquearon la cuenta de Donald Trump tras el ataque al Capitolio de los Estados Unidos.
Eso hizo que más que nunca las plataformas se convirtieran en censoras de lo que se publicaba en ellas, y eso ha generado no pocas polémicas. En primer lugar, por la dificultad de moderar el contenido en redes sociales de esta envergadura: reportajes como 'The Trauma Floor' mostraba cómo los moderadores de Facebook tenían que soportar todos los días escenas terribles. La red social acabó indemnizándoles tras el escándalo.
No es ni mucho menos el único ejemplo de desastres en el ámbito de la moderación: tenemos uno terrible en lo que sucedió con YouTube Kids mostrando vídeos terroríficos a los niños, algo que luego se han esforzado en corregir pero que sigue siendo difícil de controlar.
En segundo, porque cuando estas plataformas censuran, lo hacen conforme a unos sesgos y criterios secretos y privados. Son juez y parte, y no hay posibilidad de apelación. YouTube cierra cuentas por motivos kafkianos, Twitter banea a quienes usan la frase "te mato" en sentido figurado y en la App Store de Apple se censuran aplicaciones por motivos diversos: algunos justificados, y otros menos.
Para solucionar este segundo problema, la Unión Europea ha puesto en marcha su Digital Services Act (DSA), una nueva regulación con la que se quieren regular todos los aspectos que afectan a los contenidos digitales, desde los algoritmos hasta la desinformación. Las empresas de hecho tendrán que ser mucho más responsables con lo que se publica en ellas.
El problema es gigantesco tanto para las empresas —incapaces de moderar todo lo que sus usuarios (y bots) publican— como para los reguladores y usuarios, que se encuentran con un escenario que será difícil que cambie. No hay solución a la vista, y lo único que parece que podemos hacer es tratar de minimizar lo malo de todas estas plataformas y maximizar lo bueno.
Algo así estamos comenzando a ver también con todo lo relacionado con la inteligencia artificial. Si las redes sociales plantean dificultades, lo de los contenidos creados (o generados, insistimos) por inteligencia artificial son palabras mayores. Mucho mayores.
De hecho, la facilidad y el bajo coste de generación de estos contenidos hace que sea fácil prever que tardaremos poco en estar absolutamente inundados por imágenes, textos, vídeos y música generados íntegramente por máquinas. No solo eso: todos esos contenidos llegarán probablemente a ser indistinguibles de los que crearíamos los seres humanos.
Eso plantea posibilidades alucinantes en muchos ámbitos —no solo de la creación, sino también de la investigación— pero también amenazas muy reales. Los deepfakes podrían convertirse en el pan nuestro de cada día, y ver en Twitter, Facebook o TikTok a una celebridad diciendo algo sorprendente pero coherente será tan común como peligroso. Las suplantaciones —como la que sufrió recientemente la farmacéutica Eli Lilly— serán mucho más temibles, y aquí detectar qué es real y qué no será crucial.
Si lo rompes lo pagas
Los responsables de OpenAI se han dado cuenta del problema que ellos mismos han creado: los textos escritos por un sistema de inteligencia artificial como ChatGPT plantean ventajas importantes, pero también riesgos. Lo hemos visto en el sector de la educación, donde esta herramienta plantea el fin de los deberes.
En OpenAI reconocen ese problema y de hecho en el anuncio oficial de la herramienta de detección (su "clasificador de IA") dedicaban un apartado específico al "impacto para educadores", destacando el debate que ChatGPT ha impulsado entre este colectivo. Dan una serie de consideraciones especiales para los educadores, pero recuerdan que además que tanto este clasificador como otras herramientas similares tendrán impacto en "periodistas, investigadores de información falsa, y otros grupos".
Será interesante ver cómo mejora la precisión de estas herramientas, pero con contenidos de todo tipo cada vez más difíciles de distinguir de los creados por el ser humano, la tarea parece enormemente compleja. Adobe presumía de poder identificar deepfakes en 2022, y Facebook también iba a invertir en ello, pero la vieja técnica de fijarse en los ojos ya no parece tan relevante.
Con el texto ocurre lo mismo: a la propuesta de OpenAI se le suma ahora DetectGPT, orientada a detectar trabajos académicos escritos con ChatGPT. Hay propuestas interesantes como la de insertar marcas de agua ("watermarks") invisibles en textos generados por inteligencia artificial, y uno de los creadores de OpenAI está trabajando precisamente en esa opción.
Esas herramientas de detección, como la que propone OpenAI, seguirán avanzando, sin duda. El problema es que también lo harán los motores de inteligencia artificial generativa, que cada vez son "más humanos".
Aquí de nuevo las soluciones parecen difícil, y la regulación —que suele ir con bastante retraso— debería comenzar a ponerse en forma rápidamente. Las soluciones parecen complejas y esquivas —multas, obligar a etiquetar contenidos generados por IA—, y es aún pronto para saber hasta dónde puede llegar el fenómeno. Esperemos lo mejor y preparémonos para lo peor.
Imagen: Karen
Ver 1 comentarios