Sabemos que Facebook está invirtiendo grandes recursos en sus gafas inteligentes y en la realidad aumentada, pero por el momento más allá de grabar vídeo y sacar fotos no tienen grandes capacidades.
Eso puede cambiar en el futuro gracias a la inteligencia artificial. ¿Cómo? Pues una de las posibilidades es dotar a la IA de la capacidad de entender lo que se ve desde nuestros ojos, escuchar y conseguir "recordar escenas" (pudiendo responder preguntas como "¿dónde dejé mis llaves?") o "recordar palabras" (pudiendo responder preguntas como "¿qué dijo Juan el otro día?"). Un proyecto de lo más llamativo que a la vez genera múltiples dudas.
Ego4D, el proyecto que nos hace entender qué quiere Facebook conseguir en el futuro
Facebook ha anunciado hoy el desarrollo de Ego4D, un proyecto del departamento de inteligencia artificial donde, en colaboración con 13 universidades de todo el mundo, han creado una base de datos para enseñar a la IA a entender las típicas imágenes y fotos grabadas desde dispositivos en primera persona.
Mientras que lo habitual es que los algoritmos trabajen con conjuntos de datos de vídeos y fotos vistas desde lejos, lo habitual hoy en día, en Facebook quieren anticiparse a una situación donde los vídeos en primera persona sean más comunes. El problema radica en que mientras la IA es capaz de identificar una imagen de una noria, no lo tiene tan fácil cuando la imagen de la noria es desde la persona montada en ella. Algo parecido ocurre en todo tipo de situaciones donde el ángulo no es desde lejos.
“Los sistemas de inteligencia artificial de próxima generación necesitarán aprender de un tipo de datos completamente diferente: vídeos que muestran el mundo desde el centro de la acción, en lugar de al margen”, explica Kristen Grauman, investigadora de Facebook.
Ego4D ha publicado un primer estudio donde analiza más de 2.200 horas de vídeo en primera persona, con 700 participantes que muestran tareas del día a día. Según explica Facebook, esto supone multiplicar por 20 la cantidad de material del que se disponía para ayudar a entrenar a los algoritmos.
En qué usos piensa Facebook que puede servir entrenar a la IA en primera persona
¿Qué utilidad podría tener que la IA pudiera ver y oír todo lo que hacemos en primera persona? Desde el equipo de Facebook dejan cinco posibilidades:
Memoria episódica: preguntar cuándo ocurrió algo. Al tener una grabación de nuestra vida, la IA puede responder a preguntar que en muchas ocasiones solo nosotros sabemos.
Pronóstico: anticipar ciertos pasos rutinarios. Por ejemplo en una receta, que la IA nos avise si nos hemos saltado algún paso.
Manipulación de objetos: que la IA nos oriente a realizar determinados pasos, por ejemplo tocar un instrumento o realizar indicaciones de cómo colocar nuestro cuerpo.
Diarios audiovisuales: al tener un registro de lo que vemos, sería posible preguntar quién dijo qué y cuándo. Y así por ejemplo recordar qué cifra dijo el profesor o a qué hora se quedó.
Interacción social: mejorando el entendimiento de la primera persona, los algoritmos podrían ayudar a mejorar la visión o el sonido.
Un enorme potencial... a costa de enseñarle nuestro punto de vista
Las posibilidades de aplicar la inteligencia artificial desde el punto de vista de nuestros ojos abre muchas posibilidades, pero también genera múltiples dudas a nivel de privacidad. Por el momento se trata de un proyecto completamente dentro del mundo académico, pero ya anticipa algunas posibilidades de uso comercial que podríamos ver en un futuro.
"Avanzar en nuestra capacidad de analizar montones de fotos y vídeos que fueron tomados por humanos con un propósito muy especial. A este flujo visual fluido y continuo en primera persona que los sistemas de realidad aumentada y los robots necesitan comprender en el contexto de la actividad", explica Grauman, quien apunta que no solo las gafas de Facebook podrían hacer uso de estas capacidades, sino todo tipo de asistentes.
El proyecto Ego4D es un potente ejercicio del impacto que puede llegar a tener la inteligencia artificial. Unos algoritmos donde cuanta más información le demos y más le dejemos entrar en nuestra vida diaria, más precisas serán las respuestas que puedan darnos. Establecer dónde está el límite es también un importante debate que deberá tratarse.
Más información | Facebook AI Blog
Ver todos los comentarios en https://www.xataka.com
VER 7 Comentarios