La Universidad de Tokio está desarrollado un concepto de control que nos permite interactuar con una pantalla de un dispositivo móvil sin la necesidad de tocarla. Al más puro estilo Project Natal, el sistema detecta la posición de nuestro dedo, representándola en la pantalla, pero también teniendo en cuenta la distancia de los elementos implicados.
El sistema se basa en una cámara capaz de grabar 154 imágenes por segundo, y lógicamente una circuitería y un software capaces de reconocer los elementos y sus movimientos. Como podemos ver en la demostración del vídeo a continuación, se hace uso de un teclado virtual, se mueve y se realiza zoom sobre una imagen, e incluso se dibuja en tres dimensiones:
Lo que vemos no es más que un prototipo funcional, pero se me ocurre alguna implementación interesante como gadgets en una cocina, donde a veces se hace complicado tocar la pantalla, ayudándonos a pasar las páginas de un libro de recetas con un simple gesto. Estoy seguro que de Project Natal podremos sacar inspiración e ideas que pueden ser llevadas a un dispositivo más pequeño como el de este proyecto. ¿Se os ocurren algunas?.
No es la primera vez que vemos una idea parecida con teléfonos móviles y sus cámaras, y es que salvando las enormes distancias, Sony Ericsson jugó con el control gestual de juegos y de la alarma en terminales en el mercado como el Yari o el W380i.
Vía | Crunchgear.