Imagina que vas por la calle con tus auriculares y quieres cambiar de canción. Lo normal sería pulsar los botones del cable o sacar el móvil y tocar la pantalla. Pero ¿y si pudieras hacerlo estrujando el cable? Por ejemplo, torciendo el cable hacia la derecha o izquierda o deslizando el dedo hacia arriba para subir el volumen. Suena futurista, pero Google lo ha conseguido usando inteligencia artificial y tejidos inteligentes.
El nombre técnico de esta tecnología es "E-Textile Microinteractions", o microinteracciones con e-tejidos, traduciéndolo literalmente. Para llevarlo a cabo, Google se ha centrado en los cables debido a su uso modular en los cordones de las prendas y la posibilidad de crear conexiones cableadas de datos. Vamos a ver cómo funciona.
HSM y machine learning para un cable inteligente
HSM son las siglas de Helical Sensing Matrix, o matriz de detección helicoidal. Se trata de una trenza hecha de hilos conductores e hilos de soporte pasivo (algodón) que, en pocas palabras, sirven para registrar los gestos del usuario. Básicamente, cuando hacemos un gesto estamos activando un conjunto de electrodos que pueden "rastrear el movimiento". El trenzado tiene una estructura fija que se repite a lo largo de todo el cordón, por lo que los gestos se pueden realizar en cualquier ubicación.
La ventaja de este diseño es que permite detectar la proximidad, el área, el tiempo de contacto, la torsión y la presión. Mediante gestos simples, el usuario podría hacer la mayoría de acciones relacionadas con el control musical. Para darle feedback, algo necesario para saber si el cordón ha detectado la acción o no, el cable tiene también unos hilos de fibra óptica que se iluminan con una intensidad variable en tiempo real.
¿Y qué gestos se pueden hacer? Google llevó a cabo un estudio de obtención de gestos pidiéndole a 12 voluntarios que hiciesen ocho gestos nueve veces. En total, 864 muestras con diferentes intensidades. Con estos datos, Google entrenó un modelo de machine learning cuya precisión de reconocimiento es de un 94%. Así, es posible tocar una vez para pausar y reproducir; dar dos toques para pasar a la siguiente canción y hacer una torsión hacia la izquierda para baja el volumen. También se pueden hacer gestos simultáneos, como pellizcar y deslizar o golpear y pellizcar.
Finalmente, Google desarrolló diferentes prototipos funcionales para poner su sistema a prueba: unos auriculares E-Textile USB tipo C, un cordón de sudadera (para controlar la música con la ropa) y un cable para altavoces inteligentes. Por los GIFs y vídeos que ha publicado Google, parece que el sistema funciona correctamente, pero por el momento es poco más que un proyecto.
Desde Google confían en "avanzar en las interfaces de usuario textiles e inspirar el uso de microinteracciones para futuras interfaces portátiles y telas inteligentes". Aseguran que su sistema E-Textile es más rápido que los controles de botones de los auriculares y que el feedback obtenido durante el análisis indica cierta preferencia por este tipo de interacción. Habrá que ver si esta tecnología llega al mercado de consumo o se queda en un proyecto más, aunque ya hay alguna que otra prenda inteligente disponible.
Más información | Google
Ver todos los comentarios en https://www.xataka.com
VER 11 Comentarios