La investigación en el campo de la lectura de la mente por parte de un ordenador se remonta a 1970. Desde entonces muchas cosas han cambiado. Especialmente interesante es la evolución en cascos capaces de interpretar "los pensamientos".
La tecnología para "leer la mente" contiene una buena cantidad de ciencia aplicable al día a día. Pero, ¿hemos conseguido que funcione, al fin? A pesar de que las películas de ciencia ficción siguen siendo eso, ficción, nos acercamos rápidamente a la aplicación de este tipo de dispositivos de una manera mucho más práctica que en las películas.
¿Para qué sirve un casco capaz de leer la mente?
Leer la mente es un concepto excesivamente amplio y complejo. En él podemos abarcar desde proyectar nuestros sueños a dar órdenes sin mover un músculo: telepatía, telequinesia, almacenamiento de información, recuperación de recuerdos... todas estas son formas, más o menos, de interactuar mediante nuestros pensamientos. Sin embargo, de todos ellos, ¿cuáles son reales? Lo cierto es que existen algunas aplicaciones ya disponibles en nuestro mundo que bien podrían catalogarse como fantasía.
Entre las aplicaciones más interesantes están aquellas que solucionan problemas humanos. Hace ya un tiempo os hablamos de personas con dificultades para el habla y cómo un ingenio capaz de leer el electroencefalograma podría tratar de solventar la barrera comunicativa. La empresa Emotiv lleva trabajando en este tipo de dispositivos bastante tiempo, de hecho.
Su idea es capaz de crear un casco que lea la señal eléctrica de nuestro cerebro y la traduzca a palabras vocalizadas mediante un dispositivo, como nuestro móvil. Y si es capaz de vocalizar, ¿por qué no leer el movimiento de otras partes del cuerpo? El prototipo iBrain, de 2012, pretendía justo eso, y fue probado por el mismísimo Stephen Hawkin, quien sufría de una terrible parálisis debida a una enfermedad neurodegenerativa. Si un elemento así alcanzara la madurez tecnológica, podría implantarse en personas con miembros biónicos para hacerlos más precisos y naturales, ¿no?
Bien, pues esto ya es posible, aunque todavía los casos más avanzados leen las neuronas de los miembros, y no directamente la mente. Esto tiene una explicación: la dificultad de las señales cerebrales. Todavía no entendemos bien cómo funciona el "órgano más importante" de nuestro cuerpo. Bucear entre el maremagnum de cambios que ocurren en el tejido, tratando de interpretar las señales que emite sin tan siquiera poder "entrar" en él, es una tarea titánica.
Sin embargo, los avances están alcanzando cotas impresionantes. Además de leer la mente para reproducir movimientos, desde hace unos años, los científicos trabajan en un algoritmo capaz de reproducir la imagen que estamos imaginando, como explican en este artículo de Science, gracias a la implicación de redes neuronales y machine learning. Y aunque todavía falta mucho trabajo por delante, lo cierto es que probablemente, la realidad virtual que podemos apreciar en Johnny Mnemonic, la peli de culto (que se supone que transcurre en 2021, curiosamente) comenzaría con trabajos como este.
Y si en vez leer la mente leyera la boca...
Al igual que ocurre con los miembros biónicos que no están conectados directamente al cerebro, existen algunas otras aplicaciones que leen la señal de nuestro sistema nervioso. Al fin y al cabo, esta es otra manera de "leer la mente", aunque sea en el extremo de uno de sus canales de comunicación. Y es una manera bastante eficiente.
Al leer al final de la vía neuronal nos deshacemos de todo el lío de señales recibidas por los aparatos. Esto facilita, en la mayoría de los casos, la interpretación. Bajo esta premisa funcionaba, precisamente, el aparato que acompañó a Stephen Hawking hasta el final de sus días. Por desgracia, y a pesar del ingenio del que hablábamos, Hawking nunca llegó a usar un útil dispositivo capaz de leerle la mente.
En vez de eso, el aparato que conectaba su silla le leía los músculos de la mejilla, tal y como lo describen en este artículo de la tecnológica SwiftKey, donde desgranan algunos de sus secretos. El dispositivo estaba diseñado especialmente para él, y el software aprendía del lenguaje que empleaba para mejorar su comunicación así como su interacción limitada con el mundo. De una manera similar, el proyecto conjunto entre el MIT y Google, AlterEgo, trabaja en un casco "lector de mentes" un tanto particular.
Y es que, en vez de leer la mente, el casco, pegado a la mandíbula inferior, es capaz de leer las palabras que no pronunciamos. Cuando verbalizamos un mensaje, aunque no pronunciemos ninguna palabra, nuestros músculos faciales se preparan para comunicarnos. Es un fenómeno conocido como subvocalización. Pensando en órdenes verbales: "Enciende el ordenador" o "Escribe esta frase", AlterEgo es capaz de leer las señales musculares e identificar el mensaje.
Gracias, de nuevo, a las redes neuronales y el machine learning, dos tecnologías inherentemente ligadas a estos avances, el dispositivo distingue las órdenes y las filtra, permitiendo interactuar con otro software. De esta manera, este pequeño casco, no invasivo, se convierte en la puerta de entrada para interactuar con el mundo a través de la mente, pero subvocalizando.
Los inventos más prometedores hasta la fecha
Mover un miembro biónico, ayudar a comunicarnos, ejecutar órdenes o transmitir una imagen a una pantalla son aplicaciones que ya tenemos entre nosotros. ¿En qué estado se encuentran? A estas alturas, los dispositivos más avanzados, sin duda alguna, son los miembros biónicos controlados por el pensamiento, tanto los que están directamente conectados como los que leen las señales musculares (que son la mayoría). Existen numerosos productos en el mercado, algunos muy avanzados, como Luke o los impresionantes miembros protéticos del laboratorio de física aplicada Johns Hopkins, el cual trabaja, incluso, en la capacidad de incluir el tacto.
Por supuesto, entre los dispositivos más punteros también se encuentra AlterEgo, que, si bien hace ya unos años que no publican novedades sobre el proyecto, continúa en el filo de los mayores avances debido a su aplicación y sus posibilidades: al no ser invasivo y constituir un dispositivo muy integrado en el entorno IoT, no solo sirve para solucionar problemas, sino que podría ayudar a hacer la vida más cómoda de todo el mundo, como un dispositivo más.
Otro ejemplo en el vértice de los avances es el dispositivo con el que comenzábamos, de Emotiv. La empresa vende varios de estos cascos, no solo capaces de ayudar a comunicar mejor, según afirman, sino también diseñados para recoger todo tipo de datos cognitivos. ¿Qué interés o utilidad pueden tener? A nivel coloquial probablemente ninguno, aunque la empresa asegura que nos permite revisar nuestros niveles de estrés, focalización y otros estados mentales. En cualquier caso, todavía queda mucho por avanzar, incluso en un dispositivo que lleva ya años en el mercado.
Por último, nos quedan los lectores de mente capaces de exponer la imagen en la que pensamos. El algoritmo del que hablábamos es capaz de decodificar con cierta precisión la imagen en la que estábamos pensando. Eso sí, no a partir de cero. Necesita algunos precursores y un exhaustivo entrenamiento. Pero, por el momento, este algoritmo presentado por un equipo de la Universidad de Kyoto, ha asentado las bases de esta tecnología, como observamos en su artículo. El algoritmo ya es capaz de detectar formas simples e "imprimirlas" en la pantalla. Todavía queda mucho para que esto convierta el universo de Mnemonic en una realidad, pero sigue siendo la aproximación más cercana a ese mundo.
Imágenes | PxFuel, Unsplash, MIT, Emotiv
Ver 1 comentarios