Muchas personas a lo largo y ancho del mundo viven habiendo perdido la capacidad de hablar, ya haya sido como consecuencia de un accidente vascular o de alguna enfermedad; condenados a que las palabras que resuenan en su cabeza se queden ahí atrapadas.
La mayoría no tienen opción de comunicarse más que a través de sintetizadores de voz manejados con movimientos limitados, como le ocurría al cosmólogo Stephen Hawking. Pero la tecnología puede a ayudarles a cambiar eso en breve.
De los electrodos al sintetizador de voz
Hasta ahora se había logrado dar un paso bastante reseñable: que personas con parálisis profunda pudieran responder con un 'sí' o un 'no'.
Ahora, tres equipos de investigadores han logrado dar pasos importantes en los últimos meses para convertir los datos en crudo captados por redes de electrodos (implantadas quirúrgicamente en el cerebro)** en palabras y oraciones** computerizadas que, en algunos casos, resultaban inteligibles para los oyentes humanos.
No echemos las campas al vuelo: ninguno de los tres equipos logró que las computadoras verbalizar el discurso tal y como lo habían pensado los sujetos del estudio.
Los sujetos de estudio fueron sometidos a pruebas (escuchar grabaciones de audio, pensar en silencio, leer en voz alta, etc) mientras los investigadores monitorizaban la corteza auditiva del cerebro, que permanece activa tanto cuando escuchamos como cuando hablamos.
El equipo dirigido por Nima Mesgarani en la Univ. de Columbia hizo uso de datos captados en cinco personas con epilepsia: una red neuronal analizó los datos medida que los pacientes escuchaban a personas que nombraban dígitos de cero a nueve.
La IA fue luego capaz de reconstruir las palabras con un 75% de precisión. El experimento realizado por el equipo del neurocirujano de la UCLA Edward Chang se tradujo en varias frases que fueron identificadas correctamente por 166 personas en un 80% de los casos.
No es nada fácil "escuchar al cerebro"
Pero, para mejorar esos resultados, se enfrentan a tres problemas:
El modo en que estas señales se traducen en sonidos del habla varía de una persona a otra, por lo que la IA debe estar entrenada para cada individuo en particular.
La IA funciona mejor cuando se le alimenta con datos extremadamente precisos, lo que explica que haya que abrir abrir el cráneo para instalar los electrodos. Pero para los investigadores sólo es posible realizar ese experimento aprovechando intervenciones para solventar dolencias previas (tumores cerebrales, esquizofrenia, etc).
¿Cómo funcionarán estas IAs cuando se trabaje directamente con personas que no pueden hablar? Las señales cerebrales que no están acompañadas de un sonido externo que coincida con la actividad cerebral pueden ser difícil de interpretar para una computadora (por ejemplo, se dificulta reconocer donde empieza y termina esta 'habla interna').
Decodificar el discurso pensando requerirá dar "un gran salto", en palabras de Gerwin Schalk, neurólogo del Centro Nacional de Neurotecnologías Adaptativas en el Departamento de Salud del Estado de Nueva York.
Pero, si la empresa tiene éxito, se espera no ya sólo que logren recrear las frases que piensen, sino también poder captar y expresar otros aspectos del habla, como el tono o la inflexión.
Vía | Science
Ver todos los comentarios en https://www.xataka.com
VER 4 Comentarios