El expositor del Institute of Electronic and Electrical Engineers (IEEE) del Mobile World Congress, en comparación con los enormes stands de LG o Huawei, no era gran cosa. Sin embargo llamaba la atención su experiencia con gafas de realidad virtual: las usabas con un ordenador-mochila de MSI que te colocabas en la espalda e interactuabas con objetos que dichas gafas reconocían para "enriquecerlos" virtualmente.
Esa demo era sólo la superficie de algo mucho más importante, el primer paso hacia lo que ahora mismo sigue considerándose ciencia-ficción: utilizar interfaces de realidad virtual sólo con la mente. Y de momento puede parecer algo impensable, pero se está investigando y para hablar del tema acordamos una breve charla con uno de los responsables del IEEE en este campo: el profesor Christopher James.
James es profesor en ingeniería biomédica y neurocientífico, y trabaja en el desarrollo de este tipo de interfaces a partir de descifrar las señales que emite nuestro cerebro para convertirlas en órdenes que entienda una interfaz digital. Todo mediante encefalogramas, y con el objetivo primario de ayudar a los pacientes con discapacidad que no puedan moverse por sí mismos para luego ampliar a aplicaciones más globales.
"Aún no podemos abandonar teclados y ratones"
¿Qué hace un experto en electroencefalogramas en el Mobile World Congress? Este mundo y el vuestro están aparentemente muy separados... ¿En qué estás trabajando?
La verdad es que tienes razón con lo de los mundos separados... el IEEE se especializa mucho en analizar la actividad cerebral humana. Pero el ángulo que tengo yo y que conecta eso con el Mobile World Congress es que intento que se pueda medir esa actividad cerebral en casa.
Una de las dolencias con las que trabajo es el llamado Síndrome del Enclaustramiento, una lesión cerebral horrible que impide que el paciente pueda comunicarse. Usamos herramientas como la interfaz cerebro-ordenador para que esos pacientes puedan comunicarse con el mundo exterior usando electroencefalografía. Y esto puedes hacerlo relativamente bien en una clínica utilizando equipamiento de alta tecnología, pero que cuesta puede costar de 70.000 a 100.000 libras esterlinas. Las posibilidades de llevar eso al mundo exterior son muy pequeñas y complicadas.
Lo que queremos es transformar todo ese equipamiento en algo móvil para poder tomar medidas donde queramos, de una forma fiable pero también barata. Eso es obviamente una área muy específica, un nicho. Pero puedo generalizar diciéndote que como mi trabajo se centra en el cerebro y el comportamiento, y es en ese comportamiento donde el mundo del móvil entra en escena. Queremos poder ver cómo se encuentra o cómo se comporta un paciente remotamente.
Un ejemplo sencillo de esto pueden ser las pulseras y podómetros de Fitbit, aunque es una aplicación muy simple. Lo que a nosotros nos interesa es observar el comportamiento de las personas en casa, en su propio ambiente con una serie de mecanismos. Nos interesan los wearables para poder hacer esas medidas, y también nos interesa el Internet of Things para medir cosas como el uso del agua colocando sensores en las tuberías de algún paciente que quiera poder ser independiente y vivir solo. Lleva eso a la electricidad e incluso podemos detectar cuando un paciente enciende la cafetera, el lavaplatos... junta todo esto con los datos de los wearables y deja que pase un poco de tiempo y obtienes datos muy interesantes.
Así que tu especialidad se ha centrado en cómo procesar la actividad electromagnética del cerebro y en un proyecto de interfaz cerebro-ordenador. Ante la llegada de cascos comerciales, ¿En qué punto de desarrollo estamos? ¿Podemos prescindir ya de cosas como el ratón o el teclado?
Ya hay cascos comerciales disponibles, y eso es una buena noticia porque significa que puedes obtener electroencefalogramas por un precio relativamente bajo. El problema con lo que hay ahora es que los electroencefalogramas que obtienes no son de mucha calidad, los datos que obtienes no son muy buenos ni las localizaciones tampoco. Es un comienzo, pero aún no hemos llegado al punto de que esos cascos sean totalmente fiables. Aún no podemos abandonar teclados y ratones.
Estamos en un punto en el que todavía se aplica la regla de "si se puede hacer con el músculo, mide antes la actividad del músculo que la del cerebro que es más fácil". Pero con los avances en la nanotecnología, tarde o temprano sobrepasaremos esto gracias a una mejor calidad de los electroencefalogramas.
"Conocemos la actividad de nuestro cerebro pero eso ni significa que lo entendamos"
¿Aparte de esa calidad de los electroencefalogramas, hay más problemas que nos encontramos a la hora de 'procesar' y 'descifrar' la actividad electroencefálica?
Ya conocemos muchas cosas de nuestro cerebro midiendo su actividad, pero eso no significa que entendamos el cerebro. Aún no hemos descifrado todos sus secretos aparte de unos pocos trucos como poder detectar cuando un paciente imagina que mueve un brazo. Queremos mejorar para poder hacer acciones más elaboradas, pero la tecnología también tiene que hacerlo.
¿Qué podemos esperar en los próximos años? ¿Estamos cerca de poder controlar cualquier dispositivo electrónico con solo nuestro pensamiento?
Creo que antes que eso tendremos un híbrido, algo como un casco. Me lo imagino por ejemplo en un juego, donde juegues con el teclado y el ratón pero un casco te dé una interfaz extra para hacer ciertas acciones. Pero a día de hoy no tenemos la velocidad como para que las interfaces cerebro-ordenador no sean más que una ayuda. Pero puede haber un tiempo en el que eso mejore.
Con implantes, por ejemplo, podemos tener datos de mucha más calidad. ¡Pero me da que no muchos gamers van a querer ponerse implantes en el cerebro!
¿Qué otras innovaciones tecnológicas nos puede dar la ingeniería neural?
Creo que en un sentido, no. Depende de cómo interpretemos las señales del cerebro y de si cambiamos el modo de hacerlo con nuevos descubrimientos. Piensa que estamos midiendo la actividad cerebral del mismo modo con el que lo hacíamos en los años treinta.
Podríamos ver este tipo de interfaces cerebrales como accesorio de los smartphone del futuro o hay ambiciones incluso de superar ese nivel y llegar a ser algo completamente independiente?
En efecto, ahora mismo algunos de estos dispositivos necesitan estar emparejados con un teléfono. Pero poco a poco la electrónica se va haciendo más pequeña, más rápida, ahora los circuitos pueden ser flexibles e incluso puedes imprimirlos. Personalmente creo que en el futuro usaremos implantes, pequeños y seguros que se puedan hacer fácilmente. Que vayan haciendo mediciones sin necesariamente enviarlas, que lo hagan sólo cuando sea necesario.
De momento usamos el teléfono para recopilar nuestros datos de salud. ¿Convierte eso al smartphone en un dispositivo médico? En cierto modo, sí.
"El problema de plataformas que dan datos médicos como Fitbit es que aparecen y desaparecen"
Ahora parece que ha llegado el momento de la realidad virtual: aunque las iniciativas de salud llevan ya bastantes años en marcha no acaban de extenderse. Tienen un papel fundamental en las fobias y en otros trastornos emocionales, pero ¿qué más puede aportar la realidad virtual a la salud? ¿En qué se está trabajando?
Lo veo en la educación, para que los alumnos aprendan con cosas como las operaciones quirúrgicas virtuales. O que esas operaciones sean reales, y que los alumnos puedan ver cómo se hacen a través de una interfaz virtual como si las estuvieran haciendo ellos mismos.
También lo veo en casos en los que un paciente tiene que hacer rehabilitación, gamificando la experiencia para motivar más a alguien que ha sufrido un accidente. Con la realidad virtual estás inmerso en el proceso de curarte y puedes acelerarlo. Y puede ser también más divertido, y haces las cosas mejor cuando son divertidas.
¿Cuándo veremos estas aplicaciones en nuestro día a día? Parece que es algo que nunca llega.
Desde un punto tecnológico ya estamos ahí, ya hemos llegado. Lo que tenemos que hacer es hacer de la experiencia algo con lo que podamos hacer deporte u otras actividades. ¿Dos años? ¿Cinco años? Yo creo que por ahí podemos tirar. Y si nos ceñimos a ejercicios clínicos de rehabilitación, la tecnología ya nos permite más o menos a que el paciente pueda hacerlo desde casa.
El mundo de los wearables sanitarios parece a punto de explotar: quizá la mayor traba sean los requisitos de las agencias sanitarias. ¿Estamos a las puertas de una revolución como nos suelen decir?
Las instituciones no saben cómo tratar esto todavía, pero al mismo tiempo creo que los gobiernos y los departamentos de salud necesitan regularizar todo esto. Un ejemplo es el de la NHS británica, que necesita buscar una forma de "estandarizar" todos los datos que generan los dispositivos tecnológicos de salud.
Y el problema de plataformas como Fitbit es que llegan y se van: ¿hasta cuándo tenemos la garantía de que los pacientes van a usar algo? Ahora mismo, si te has medido algo con una pulsera Fitbit durante tres meses tu médico va a ignorar todos esos datos. Pero si tuviéramos ese estándar del que te hablo, podríamos estar ante esa revolución que dices. Habría tecnologías caducas, llegarían nuevas... pero todo se ceñiría a esos estándares. Aún tenemos a demasiados gobiernos y a demasiadas empresas intentándolo hacer a su manera.
Tantos datos son un gran recurso, pero ¿están nuestros sistemas sanitarios preparados para poder usarlos? ¿O acabaremos encontrándonos con las mismas prácticas de siempre disfrazadas de 'data-based'?
La respuesta corta es no. No tenemos aún la infraestructura suficiente como para poder soportar todo eso.
Imágenes | Digitalarti, Lisa Brewster
En Xataka | ¿Qué fue de la revolución que nos prometía la realidad virtual?
Ver 3 comentarios