El Jet Propulsion Laboratory de la NASA lleva tiempo investigando nuevos métodos para controlar los robots que tiene en el espacio. Ya han hecho pruebas con dispositivos como Leap Motion y Oculus Rift, y ahora se han apuntado al programa de desarrolladores de Kinect para buscar otras alternativas.
El equipo responsable de esa iniciativa comenzó a trabajar a finales de noviembre y en pocos días consiguieron combinar un Oculus Rift con Kinect 2 para poder manipular un brazo robótico. Según sus comentarios, la soulución es "la más inmersiva" que el JPL ha construido hasta la fecha.
Este laboratorio ya había trabajado con la primera versión de Kinect --de hecho, llegaron a publicar un pequeño juego en el que controlábamos la sonda Curiosity en Marte-- pero con la nueva edición de este periférico los desarrolladores han ganado en precisión y control: "con todos estos nuevos puntos de seguimiento y libertad de ángulos de rotación hemos sido capaces de manipular mucho mejor el brazo robótico".
El resultado, dicen, es el de tener la impresión de que el brazo robótico sea una extensión de nuestro cuerpo. Por supuesto, la latencia es un problema grave --las órdenes y sus respuestas tardan en llegar y recibirse, ya que la distancia es enorme-- pero han ideado una solución. Como se ve en el vídeo, se muestra tanto una imagen en sombra con la posición de nuestro brazo, y otra en la que se muestra el robot, para adecuarnos a esa latencia. Los propios ingenieros del JPL revelan que "lo controlas con adelanto, pero no hay sensación de retrasos".
Ver 11 comentarios