El pasado mes de febrero, OpenAI protagonizaba incluso titulares de la prensa generalista tras anunciar que habían desarrollado una IA tan "peligrosa" que habían decidido no publicarla, impidiendo así que otros desarrolladores pudieran usarla y estudiarla.
El nombre de esta IA dedicada a la generación de textos era GPT-2 y, para justificar su inusual decisión, sus creadores se amparaban en el peligro de que pudiera ser usada para la generación automática y masiva de fake news. Una actitud, por cierto, muy criticada por varias figuras relevantes del ámbito de la inteligencia artificial.
Bueno, realmente OpenAI sí publicó GPT-2, pero sólo una versión limitada de la misma, de 117M (millones de parámetros). Más tarde publicó una de 345M, pero aún se quedaba muy por detrás de los 1,5B de la versión completa. En teoría, teniendo las primeras no existe ningún impedimento para escalarlas a la versión completa... a excepción del coste de la capacidad de cálculo necesaria para tal tarea.
Por ello, desde febrero el público sólo ha tenido acceso a una versión muy limitada de GPT-2 que permitía poco más que realizar curiosos experimentos con textos (preferentemente en inglés).
Y llegó Connor Leahy
Sin embargo, un estudiante de informática residente en Alemania llamado Connor Leahy anunció hace unos que había logrado replicar la versión completa de GPT-2 y que, si nadie le convencía de lo contrario, el próximo día 1 de julio la hará pública para que cualquiera pueda acceder a ella.
Hey @OpenAI, I've replicated GPT2-1.5B in full and plan on releasing it to the public on July 1st. I sent you an email with the model. For my reasoning why, please read my post: https://t.co/UEPEgIuS4j#machinelearning #gpt2 #aisafety
— Connor Leahy (@NPCollapse) June 6, 2019
La clave de este logro reside en que Leahy tuvo acceso (gracias al programa Tensorflow Research Cloud) a un Cloud TPU v3-512 que Google empezó a ofrecer el pasado 7 de mayo y que ofrece mayor capacidad de cálculo que la usada por OpenAI para crear GPT-2. Usó una serie de parámetros que ha colgado en su repositorio de GitHub, y tuvo al TPU trabajando aproximadamente una semana.
"No estoy trabajando bajo la dirección de ningún gobierno, universidad o gran corporación (aunque creo que le debo mi primogénito a Google o algo así, dada la cantidad de apoyo gratuito que me han brindado): sólo soy un estudiante de pregrado curioso que pasa su tiempo libre experimentando con IA en lugar de salir y hablar con chicas".
En su blog, además de explicar los detalles técnicos de su logro, afirma que también quiere "aprovechar la oportunidad de que tengo muchos ojos sobre mí para debatir mi punto de vista sobre GPT-2 y lo que significa para la IA".
La verdad es costosa
Para Leahy, el peligro de GPT-2 no es su capacidad de producir texto, pues esto sigue siendo algo que los humanos hacemos mejor, sino su capacidad de "reducir el costo de la generación de texto convincente".
"Hipotéticamente, GPT-2 podría representar una especie de momento decisivo en el que se reduce tanto dicho coste que da pie a la aparición de algún tipo de nueva actividad maliciosa".
Leahy deja claro que se toma muy en serio el uso seguro de la IA (de hecho, reconoce que es "la cuestión más importante de nuestro tiempo"), pero también tiene claro que las noticias falsas pueden ser un problema muy real, pero no son un problema "nuevo".
A continuación, afirma que es peligroso centrar los esfuerzos en usar la IA para detectar automáticamente los textos generados por GPT-2 porque
"la verdad no sólo no es gratis, sino que es costosa... descubrir la verdad sobre el mundo requiere mucho trabajo. Lo que importa para nuestro debate es que cuán peligrosa y/o útil sea una información depende de cuánto confiamos en ella".
Y nuestro protagonista termina concluyendo que los actuales esfuerzos para detectar fake news son peligrosos, porque se limitan a mover nuestra confianza de unas máquinas a otras, sin obligarnos a asumir el coste de la búsqueda de información veraz y confiable.
"No podemos volver a meter el genio en la botella"
Y además, añade, confiar en sistemas automatizados para censurar texto generado por IA implicaría terminar censurando también comentarios realizados por humanos, puesto que gran parte de los actos comunicativos que generamos hoy en Internet son lo que Leahy llama meros "balbuceos", ideas repetidas sin que medie comprensión. Exactamente lo que genera la IA.
"Realmente creo que si la gente supiera que algo como GPT-2 existe, eso los obligaría a mejorar sus estándares para decidir en que información confían. Pasó igual con el correo basura: cuando se crearon estafas como la del príncipe nigeriano y otras igual de ridículas, funcionaron . [...] La única manera de hacer que la gente escuche, es demostrando que su amenaza existe realmente.
Y es por eso que planeo lanzar 1.5B al público, el 1 de julio. Estoy esperando porque quiero darle tiempo a la gente para convencerme de que me he perdido algo y me estoy equivocando.
Porque fingir que este tipo de cosas no existen o que están 'sólo en manos de gente buena como OpenAI' es una garantía para para permitir que abusen de ellas otros actores que desconocemos y que son mucho menos benignos que OpenAI o que yo".
Ver 26 comentarios