El Premio Turing, para tres de los principales responsables del actual auge de la inteligencia artificial

Yoshua Bengio, Geoffrey Hinton y Yann LeCun, tres de los investigadores conocidos con el epíteto de 'padrinos de la inteligencia artificial', han sido galardonados hoy con el Premio Turing, considerado de facto como el 'Nobel de la informática'.

Los tres investigadores se repartirán el premio de un millón de dólares, adjudicado por el trabajo que han llevado a cabo en el campo del deep learning desde la década de los 90, en una época en que existían numerosas dudas sobre el futuro de la inteligencia artificial como disciplina académica y fuente de innovaciones comerciales. Como explica LeCun,

"Hubo un período oscuro entre mediados de los 90 y principios o mediados de los 2000 en el que resultaba imposible publicar investigaciones sobre redes neuronales, porque la comunidad había perdido interés en ello. De hecho, tenía mala reputación [dedicarse a ello].

[Pero nosotros empezamos a] organizar reuniones y talleres regulares y escuelas de verano para nuestros estudiantes [lo que] generó una pequeña comunidad que protagonizó un cambio fundamental a partir de 2012-2013".

El punto y aparte llegó cuando un equipo dirigido por Hinton ganó el concurso ImageNet en 2012 gracias a una red neuronal convolucional llamada AlexNet, que logró batir cómodamente a todos sus competidores, expertos en el campo de la visión computacional, con un algoritmo que obtuvo tan sólo un 26% de errores de reconocimiento, un dato un 40% mejor que su mejor rival.

"La diferencia era tan grande que muchos quedaron convencidos en ese momento", explica LeCun.

Yoshua Bengio

Yoshua Bengio, científico informático canadiense, profesor de informática en la Universidad de Montreal desde 1993, director científico del Instituto de Inteligencia Artificial de Quebec (el mayor grupo de investigación universitario del mundo en el aprendizaje profundo.), cofundador de la startup Element AI y asesor de varias empresas de tecnología (incluyendo a Microsoft).

Su tesis giraba en torno a la combinación de redes neuronales y modelos ocultos de Markov. El año pasado se convirtió en el investigador más citado dentro del campo de la informática, gracias a sus numerosas publicaciones (en torno al medio millar). Además, fue uno de los impulsores de la Declaración de Montreal para un desarrollo responsable de la Inteligencia Artificial.

Es, además, autor de un reputado libro de texto sobre Deep Learning, disponible online de manera gratuita (en inglés), firmado conjuntamente con Ian Goodfellow, el inventor de las GANs (redes generativas antagónicas).

"En este momento, lo que más me entusiasma es el progreso que estamos logrando en lo que se conoce como aprendizaje no supervisado".

Geoffrey Hinton

Geoffrey Hinton, británico residente en Canadá, suma a su formación en el campo de la computación (se doctoró en Inteligencia Artificial en 1978, con una tesis sobre redes neuronales) una licenciatura previa en psicología experimental. Hoy en día es profesor emérito de la Univ. de Toronto y vicepresidente de Google, donde trabaja desarrollando tecnología para el reconocimiento de voz e imagen, la traducción de idiomas y procesamiento de lenguaje natural

En 1986 inventó junto a dos compañeros los algoritmos de retropropagación, fundamentales hoy en día como base para el entrenamiento de redes neuronales. En 2007 Hinton fue coautor de un trabajo muy citado en el campo de la IA, "Aprendizaje no supervisado de transformaciones de imagen".

Hinton ha protagonizado varios hitos de la IA trabajando junto a sus estudiantes: en 2009 logró desarrollar una red neuronal para reconocimiento de voz que obtenía mejores resultados que cualquier otra tecnología disponible en ese momento, y tres años más tarde demostró con AlexNet (como hemos mencionado antes) que las redes neuronales convolucionales podían reconocer imágenes con mayor precisión que cualquier otra técnica del momento.

Su papel en el actual auge del deep learning es, en resumen, absolutamente fundamental:

"El cerebro humano aprende reforzando las conexiones entre sus miles de millones de neuronas; para que un ordenador aprenda, se puede intentar reproducir ese proceso descubriendo un mecanismo que refuerce las conexiones entre neuronas artificiales".

"Hace años hice una apuesta, y me siento muy afortunado porque al final se ha demostrado que [mi estrategia] funciona".

Yann LeCun

Ingeniero informático francés, durante su doctorado (en la Univ. Pierre y Marie Curie) realizó aportaciones al desarrollo de los algoritmos de retropropagación que Hinton había inventado sólo un año antes.

LeCun se convirtió en pionero en el campo de las redes neuronales convolucionales tras entrar a trabajar en los AT & T Bell Laboratories. Se basó en dicha tecnología para crear en 1989 LeNet-5, un popular sistema de reconocimiento de caracteres escritos en cheques bancarios, que supuso también un gran avance para la tecnología de reconocimiento óptico de caracteres.

En 1996 se convirtió en responsable del Departamento de investigación de procesamiento de imágenes de AT & T Labs, donde contribuyó al desarrollo de la tecnología DjVu. Más tarde se convertiría en el primer director de FAIR (Facebook AI Research), cargo que ocupó entre 2013 y 2018.

Actualmente mantiene su actividad académica en la Univ. de Nueva York, vinculado a dos de sus centros de investigación: el Center for Data Science (que fundó, y dirigió entre 2012 y 2014), y el Courant Institute of Mathematical Science.

"La inteligencia artificial es una cuestión de ingeniería, no de matemáticas. Por ejemplo, los expertos en IA no saben por qué funciona el reconocimiento facial (en la medida en que lo hace): simplemente desarrollan un sistema a través de prueba y error. No hay una fórmula matemática que defina cómo produce la IA una respuesta".

Imagen | Re-Work

Ver todos los comentarios en https://www.xataka.com

VER 2 Comentarios

Portada de Xataka