Hace un par de meses, de la mano de Microsoft, os presentábamos un sistema de control basado en el movimiento de nuestros músculos. Parece que los chicos de Redmond están trabajando fuerte en esta temática, ya que ahora nos presentan Skinput junto a la Universidad de Carnegie Mellon, un innovador sistema en el que nuestro cuerpo hace las veces de una pantalla táctil.
La idea está basada en unos sensores acústicos que recogen sonidos de muy baja frecuencia producidos al realizar contactos con la piel, y según unos patrones se realiza una correspondencia con una acción en el sistema. Para completar el conjunto, se proyecta sobre la piel la interfaz con la que vamos a trabajar.
Nada mejor que ver un vídeo para terminar de entender lo que Microsoft nos propone:
En el prototipo vemos como un aparatoso brazalete se coloca en el bíceps del usuario, en él se encuentra integrado tanto el sistema receptor como el proyector de la interfaz. Como podéis comprobar en las demostraciones, vemos como puede jugar a Tetris o cambiar de canción con sólo tocar el dedo adecuado.
Skinput puede enviar la información recibida, sin cables, a otros dispositivos como un teléfono móvil o un PC gracias a su conectividad Bluetooth. Según nos informan los desarrolladores el sistema puede detectar interacciones con 5 partes distintas del brazo con un 95% de acierto, y funciona incluso cuando el sujeto está en movimiento.
Veo lejos el día en que un dispositivo de estas características sea un producto en el mercado, pero el primer paso lo tendremos el próximo mes de abril, ya que será presentado en sociedad en Atlanta, durante la conferencia Computer-Human Interaction.