Un escáner facial para teléfonos móviles capaz de ayudar a médicos a detectar ictus en cuestión de segundos. Ingenieros biomédicos de la Universidad del RMIT (Royal Melbourne Institute of Technology) y de la Universidad Estatal de São Paulo han desarrollado este software potenciado por inteligencia artificial. Según describen, este método supera significativamente la precisión y velocidad de las tecnologías actuales.
El estudio fue liderado por el investigador Guilherme Camargo de Oliveira, de la Universidad RMIT y la Universidad Estatal de São Paulo, bajo la supervisión del líder del equipo, el profesor Dinesh Kumar.
"La detección precoz del ictus es fundamental, ya que un tratamiento rápido puede mejorar significativamente los resultados de recuperación, reducir el riesgo de discapacidad a largo plazo y salvar vidas".
El principal objetivo de la herramienta es el de detectar de forma precoz si el paciente está en una fase posterior al ictus, para así poder informar de la forma más rápida posible.
Según apuntan, la herramienta tiene un 82% de precisión en la detección del ictus, aunque de ningún modo se ha desarrollado para remplazar pruebas diagnósticas completas.
¿Cómo logra su objetivo? Mediante detección facial y algoritmos de inteligencia artificial. Los investigadores destacan la dificultad para detectar el ictus, ya que en ocasiones los signos son muy sutiles. Los patrones que analiza esta herramienta tienen que ver con el reconocimiento de expresiones faciales, analizando la simetría facial y los movimientos musculares específicos, conocidos como unidades de acción.
El Sistema de Codificación de Acciones Faciales (FACS), desarrollado por primera vez en la década de 1970, categoriza los movimientos faciales en base a la contracción o relajación de los músculos del rostro, proporcionando un marco detallado para analizar las expresiones faciales.
“Uno de los parámetros clave que afecta a las personas con ictus es que sus músculos faciales suelen volverse unilaterales, por lo que un lado de la cara se comporta de manera diferente al otro lado de la cara”.
El objetivo es desarrollar una aplicación para teléfonos móviles que no solo sea capaz de detectar estos patrones, sino también otras condiciones neurológicas que afectan a la expresión facial (algo clave para que la herramienta sea aún más precisa).
Imagen | RMIT University
En Xataka | Tu Fitbit hablará contigo. Google afina su IA para orientarla hacia la salud
Ver 1 comentarios