No sé hasta dónde llegará esto del Project Soli, de los laboratorios experimentales de Google/Alphabet hemos conocido proyectos esperanzadores - como sus gafas - que han tenido un recorrido fugaz, sin llegar a tocar el mercado. Pero no cabe duda de que lo que prometen pinta muy bien y puede abrir un nuevo camino en las interacciones con los gadgets.
¿Qué es Project Soli? Pues no son más que unos diminutos radares que son capaces de reconocer movimientos que realizamos con nuestras manos, de ahí podemos interpretar y crear interfaces en las que no tocamos nada. Hoy os traemos un primer ejemplo llamado SoliType.
Project Soli fue presentado por Google en mayo del año pasado, y no habíamos tenido demasiadas noticias sobre sus andanzas, ahora vemos que por fin empiezan a llegar kits de desarrollo a algunos individuos, como es el caso del ingeniero Alex Bravo.
Alex nos enseña en vídeo sus avances con la tecnología de Google, lo hace con un sistema capaz de reconocer caracteres según el movimiento - en el aire - que realicemos con las manos. Hace falta un teléfono móvil y la plataforma de radares bajo la mano, así funciona SoliType:
Este es el primer proyecto que vemos funcionando relacionado con Project Soli, no nos extrañaría que el vídeo desapareciera pronto
En definitiva, tenemos un teclado funcionando en un dispositivo móvil, sin tocar su pantalla, un botón, ni dictar ni una palabra, simplemente moviendo dedos.
A algunos no les pillará de nuevas el trabajo de Bravo, en el pasado nos había estado enseñando la misma idea en Twiddler, pero en ese proyecto era necesario un hardware físico para interactuar.
Estamos seguros de que en la próxima conferencia Google I/O nos van a enseñar mucho más sobre Project Soli, os recordamos que tendrá lugar del 18 al 20 de mayo. Por si el material de SoliType desaparece, os podéis hacer una idea del trabajo de Ivan Poupyrev en el siguiente vídeo:
Más información | Alex Bravo, Reddit
Ver 4 comentarios