Mientras Elon Musk ya piensa en maneras de conectar nuestros cerebros con la inteligencia artificial para que "el ser humano no sea irrelevante en el futuro", Google nos lanzó en un evento en Madrid sobre machine learning un mensaje claro: la inteligencia artificial está todavía en sus primeros pasos y aún queda mucho como para pensar en cyborgs, robots asesinos o en la singularidad tecnológica.
En una cita que llamó "la magia detrás de los ordenadores", Google expuso varios casos de éxito sobre inteligencia artificial aplicados a la vida real, pero su discurso fue más en la línea de "estamos en la fase de hacer que las máquinas sean menos tontas".
Esto es un gato; esto, un avión
Porque sí, podemos hablar de redes neuronales profundas, de mecanismos de aprendizaje continuo, de enseñar a un ordenador a identificar y a solucionar problemas pero, en el fondo, las máquinas siguen siendo tontas. Y así las define Jeremiah Harmsen, líder del Departamento de Investigación de Google Europa, y con el que pudimos hablar sobre estos temas.
Ahora mismo estamos dando los primeros pasos en cuanto a machine learning y nuestro foco está en hacer que las máquinas sean menos tontas. Estamos en la fase de hacer que una máquina identifique en una foto lo que es un gato de lo que no y está habiendo grandes avances por aquí, pero hacer especulaciones sobre lo que pasará en el futuro son solo eso, especulaciones.
"Tengo claro que mis padres no se habrían imaginado en su día que pudiéramos enviar un correo desde nuestro smartphone, pero no puedo predecir el futuro por mucho machine learning que sepa", sentenciaba Jeremiah cuando le preguntábamos por el proyecto de Elon Musk y ese hipotético futuro con máquinas tan o más inteligentes como los humanos.
Y, sí, se están produciendo avances con la inteligencia artificial en diferentes áreas: desde detectar un 80% más de leones marinos en peligro de extinción con fotos aéreas y un algoritmo, pasando por un sistema de aprendizaje profundo para identificar un posible impacto peligroso en la Tierra de un asteroide en el año 2153, hasta unos agricultores japoneses que distinguen mejor entre diferentes clases de pepinos gracias al machine learning. Sin embargo, ese futuro de 'Terminator' por ahora sólo queda en el plano de la ficción. En palabras de Jeremiah:
Creo que veremos que la inteligencia artificial seguirá mejorando nuestra vida cotidiana con pequeñas cosas como hacernos llegar 5 minutos antes a nuestro destino, hacer que un ascensor llegue 30 segundos más rápido y, sin duda, acabará llegando a cuestiones mayores, como seguridad, salud, etc.
De hecho, para impulsar que el machine learning avance más rápido existen herramientas open source (la que propone Google se llama TensorFlow), aunque por ahora a nivel usuario nos tengamos que conformar con que una app sepa identificar entre lo que es un gato y un avión en una fotografía. Son pequeños avances pero a un nivel muy pequeño de lo que teóricamente nos podrá brindar la inteligencia artificial en el futuro.
¿Hype del machine learning o futuro esperanzador?
En el mundo de la tecnología siempre suele haber términos de moda. En la actualidad, uno de ellos es el machine learning. Parece que todo proyecto o empresa que use machine learning, deep learning o inteligencia artificial es más "cool" y es raro no ver algún día en diferentes medios titulares o artículos que hagan referencia a estos conceptos. ¿Cómo distinguimos la palabrería de lo que realmente es un esfuerzo innovador de inteligencia artificial?
Jeremiah responde con un diplomático "el tiempo mostrará qué proyectos son machine learning de verdad o no", aunque reconoce que ese hype es beneficioso para atraer atención a una área tecnológica muy joven.
Hay también un reto en el horizonte que es el de la privacidad, seguridad y confianza en la máquina. ¿Nos sentimos cómodos sabiendo que un algoritmo está leyendo nuestro mail para filtrar el spam? ¿O que se reconozca nuestra cara y se etiquete automáticamente en una foto en una red social? Aquí se plantea el dilema habitual desde el boom de Internet: ¿te compensa el resultado de lo que obtienes a cambio de lo que das? ¿lo que saben de ti son datos agregados o desagregados?
En el lado de Google, obviamente, resuelven este tema con un "nos tomamos esto muy en serio", incluso tienen métodos más creativos para obtener información sin que el usuario proporcione datos privados. En cualquier caso, es aquí el usuario quien tendrá la última palabra por mucho machine learning que haya detrás.
¿Qué formación hace falta para dedicarse al machine learning?
Jeremiah nos dio varias pistas para aquellos que quieran tener una carrera profesional en la inteligencia artificial y el machine learning. Nos dijo que está orientada a programadores, aunque recalcó que tener un contexto en ciencia y matemáticas ayudaría mucho, así como "ser creativo" a la hora de solucionar problemas.
Nos enfatizó que hay informes, estudios y guías para aprender a usar TensorFlow y nos confesó que ahora es un muy buen momento para especializarse en inteligencia artificial porque está en una fase muy temprana.
Sea como sea, el mensaje de Google es cristalino: no tan rápido con los cyborgs, que todavía estamos usando las máquinas para que nos ayuden a distinguir entre diferentes tipos de pepinos.
Ver todos los comentarios en https://www.xataka.com
VER 11 Comentarios