Era una época en la que apenas había datos, a la inteligencia artificial le quedaba mucho para ser una industria, el hardware estaba en el paleolítico, los problemas a resolver eran de juguete y la investigación, artesanal. Ahora que la IA aborda problemas del mundo real, hay abundantes cantidades de información que procesar y ha emergido una industria pujante en torno a esta tecnología, dos investigadores nos cuentan cómo trabajaban hace tres décadas, en los 90, cuando empezaron en este campo.
Eran tiempos en los que dejaban las máquinas funcionando y volvían al día siguiente con la esperanza de que hubieran acabado los cálculos.
Juan Antonio Rodríguez-Aguilar, profesor de investigación en el Instituto de investigación de Inteligencia Artificial del CSIC y cuya carrera comenzó en 1993, apunta rápidamente a una de las grandes diferencias con el momento actual: "Cuando nosotros empezamos no había datos. Estábamos en una ciencia en la que no se producían todos esos datos. Y todos los problemas que había en la IA eran problemas pequeños, con datos sintéticos que habían creado algunos investigadores. Además, usábamos un hardware muy limitado".
Al contrario que ahora, se trabajaba en local, muchas veces con un simple ordenador de sobremesa. Jesús Cerquides, responsable del Departamento de Machine Learning también en el Instituto de Investigación de Inteligencia Artificial del CSIC, entró en 1995, durante su último curso de la carrera de Informática. "Nosotros teníamos un software que nos habían pasado de Francia, que solo funcionaba en una máquina específica y que iba lentísima. Movías el ratón y, al cabo de un segundo, el ratón se movía a la otra parte de la pantalla".
Se trataba de un Sun SPARCstation 1, que podía alcanzar como máximo 64 MB de memoria. En comparación, un smartphone de gama media tiene hoy unos 8 GB de RAM, es decir, 125 veces más.
Rodríguez-Aguilar estaba también en el último curso de carrera cuando le explicaron cómo funcionaban las redes neuronales. Se le despertó el interés por la inteligencia artificial y, durante su Erasmus en Inglaterra, su profesor le propuso implementar un trabajo teórico suyo. Así que se dedicó a desplegar aquel algoritmo en un Macintosh Plus, un ordenador lanzado en 1986 y que montaba un procesador de 8 MHz. (Otra vez la comparación con la gama media de móviles: el chip MediaTek 1080 se compone de 2 núcleos a 2,6Ghz). "Pasé un tiempo allí implementando el algoritmo en una maquinita que era de risa. Lo hacía con el lenguaje de programación LISP. Ahora la IA se programa en Python o C++, pero aquel era el lenguaje del momento", recuerda.
En los años 90, en la investigación en IA, era habitual programar un algoritmo y ejecutarlo en un ordenador de sobremesa, incluso en casa. Ahora es impensable experimentar con IA sin usar centros de supercomputación o servicios en la nube. Esta ha sido una de las razones por las que las empresas privadas han avanzado de forma aplastante frente a los centros de investigación. La enorme potencia de cómputo de los centros de datos de Google, Microsoft o Amazon permite experimentar de forma masiva.
Todo esto esto tiene sus contrapartidas. "Para reproducir un artículo de DeepMind seguramente necesite que alguien me dé millones de euros en cómputo", comenta Cerquides. "Así que olvídate, no puedo reproducirlo. Tengo que creer a ciegas sus resultados porque no tengo el dinero para reproducirlos".
Las aplicaciones de IA hace 30 años
En ese momento, cuando Internet aún era un embrión de lo que sería después, la investigación en IA se dedicaba a resolver problemas que ahora vemos como mínimos. Se trabajaba en reconocimiento de caracteres, para identificar cuáles eran los números escritos a mano. "Se pensaba en los servicios de correos. En las cartas aparecían los códigos postales y sabíamos que sería útil no tener que imputar a mano estos códigos postales sino leerlos a partir de una foto", explica Cerquides.
Se tomaban varias fotos de un 6, escrito por diferentes personas, y se entrenaba al algoritmo para que aprendiera a diferenciarlo. Se usaba una red que se medía en unos cuantos píxeles y donde se incrustaban los números. "Era la prehistoria del reconocimiento de la escritura a mano", subraya Rodríguez-Aguilar.
También pulían algoritmos para predecir el resultado de una partida de ajedrez, una disciplina que en aquel entonces era vista como un límite para las máquinas (Deep Blue derrotó a Gary Kasparov en 1997, aunque eso ya es otra historia). Lo hacían a partir de la posición de las fichas y en base a una partida real ya celebrada. La predicción de manchas solares o el análisis de datos médicos eran otras de las tareas que exploraba la IA.
Siempre trataban problemas de dimensiones modestas, sobre todo porque las bases de datos eran muy pequeñas para soportar hipótesis complicadas. "Estamos hablando de que los conjuntos de datos grandes tenían 10.000 muestras. Esto ya había mucha gente que no lo ejecutaba porque decía que en su máquina tardaba demasiado", relata Cerquides. ChatGPT, en cambio, se nutre de todo lo que había en Internet hasta 2021, una magnitud incuantificable de información.
Cálculos de madrugada
Casi todo el trabajo se hacía en el centro de investigación. Aunque algunos investigadores se llevaban ciertas tareas ligeras de computación a su casa. El ordenador 386 de Cerquides, con su disco duro escaso y una potencia bastante limitada, trabajaba todo cuanto le pedían, incluido en turno de noche. "Mi pareja y yo dormíamos en la misma habitación donde estaba el ordenador, que por sus maravillosas características de insonorización lo bautizamos como Ruidosito", cuenta. Cuando se despertaban oían rugir y barbotear a Ruidosito, que debía pasar mil fatigas para hacer los cálculos que le habían asignado.
Rodríguez-Aguilar recuerda pasar noches en el centro de investigación probando los experimentos. El ordenador que había allí, aunque ahora sería un artículo de broma, en su momento era tecnología punta. "Nos comimos una época en la que pasábamos las noches en el laboratorio. Pasar la noche en un centro de cálculo, en el despacho, era bastante común. Me dormí sobre el teclado más de una vez", relata el investigador.
Ambos coincidieron en sus primeros años en el mismo centro. Y no solo en época, coincidían en tiempo y lugar más concretos: de madrugada en la máquina expendedora, en busca de algo para esquivar el hambre, ya que el sueño les acompañaría toda la noche. Aunque no todos los trabajos se podían hacer simultáneamente.
"Cuando empezamos en el Instituto de Inteligencia Artificial teníamos un ordenador central y cada uno teníamos una pantalla y un teclado. Así que si yo me ponía a ejecutar algo, pues me comía la CPU de Juan Antonio y él no podía ejecutar nada", explica Cerquides. "Teníamos que ponernos de acuerdo. Porque si metías muchas cosas al mismo tiempo no funcionaba ninguna. Necesitábamos un protocolo de negociación. Nos preguntábamos: oye, tú cuándo tienes la fecha de entrega de est0".
Las máquinas calculaban durante horas y horas. En su primera etapa experimentando con redes neuronales en la Universidad de Hertfordshire, en Inglaterra, Rodríguez-Aguilar recuerda dejar el ordenador funcionando y marcharse al pub. Pero le picaba el gusanillo y volvía al laboratorio de vez en cuando a comprobar los resultados. "Me moría de curiosidad", enfatiza, aunque transmite la pesadez de la espera: "A veces llegabas por la mañana y tampoco había acabado los cálculos".
Pero existía un riesgo asociado a las visitas al ordenador después de pasar por el pub. Era mejor no tocar nada en la máquina. "Entonces no había sistemas de control de versiones. Si tú cambiabas el código, aquello se cambiaba para siempre y habías destrozado dos días de trabajo, o dos semanas, porque te habías inspirado", apunta Cerquides con sorna.
El avance de vértigo en los últimos años
Ahora investigadores y estudiantes se pueden conectar desde sus casas para trabajar en inteligencia artificial. Internet, los sistemas cloud y el incremento exponencial del hardware lo han cambiado todo. Antes ni siquiera estaba disponible el código, no existía GitHub y el movimiento de software libre era minoritario.
"Te leías el artículo de otros investigadores en papel", remarca Rodríguez-Aguilar, haciendo hincapié en el formato físico, "a veces los artículos te los fotocopiabas en la biblioteca". Ambos recuerdan volver de congresos de inteligencia artificial en Estados Unidos cargados con los libros de los ponentes. Y al llegar todos sus compañeros se los pedían.
El contraste es abismal. Hoy en día los investigadores tienen acceso a cualquier artículo científico que se haya publicado hace dos semanas. Todos estos factores, sumados a la abundancia de datos, han impulsado un salto enorme en la última década. La versión masiva de la IA solo ha llegado con los modelos de lenguaje, como ChatGPT, pero su tecnología de base lleva años en cocción.
Se trata del deep learning. "De repente hay un hardware potentísimo para computar y todo lo que había en redes neuronales ya se podía empezar a usar. Se empezó a desarrollar el área a una velocidad vertiginosa. Aparecieron más y más algoritmos y es el área que realmente ha explotado", reflexiona Rodríguez-Aguilar.
En su caso, ahora emplea la inteligencia artificial para profundizar en métodos de aprendizaje cooperativo, para ayudar a crear presupuestos participativos alineados con los valores ciudadanos o en sistemas de gestión de movilidad, para compartir vehículos y reducir emisiones. Aunque también trabaja en el diseño de un entorno de entrenamiento, para introducir objetivos éticos y de seguridad en las máquinas.
Por su parte, Cerquides aplica la inteligencia artificial en sistemas para predecir crisis epilépticas y en algoritmos para apoyar la reproducción asistida identificando los embriones con más posibilidades de prosperar. Además, explora la combinación de la IA con el naciente campo de la computación cuántica, una simbiosis que aún está por descubrir.
Hoy los algoritmos están online, el código es público, los centros de datos tienen potencia sobrada, proliferan los datos y también hay otra gran diferencia. En algún momento de la conversación uno de los dos lo resumió así: "Antes éramos cuatro gatos y ahora es una disciplina súper respetada".
En Xataka | Tras el éxito de ChatGPT, OpenAI se enfrenta a su reto más difícil: sobrevivir económicamente
Imagen | Xataka
Ver 1 comentarios