Hace tiempo que los sistemas de inteligencia artificial pueden usar la visión artificial para detectar la presencia de humanos en una habitación, e incluso identificar qué están haciendo o que sentimiento expresan, con solo analizar su postura y patrones de movimiento.
Pero ¿y si la habitación está en total oscuridad? O peor ¿y si la persona no está en la misma habitación, sino en la contigua? Pues ahora eso no supone ningún impedimento para la IA: tan sólo ha de buscar una fuente de datos diferente y seguir analizando patrones. Y esa nueva fuente de datos son las señales de radio en las frecuencias WiFi.
Y eso se lo debemos a un equipo de investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) del MIT que recientemente ha publicado un 'paper' que muestra el modo en que dichas señales pueden ser analizadas por redes neuronales para permitirnos 'ver' en ausencia de luz.
"Nuestro modelo utiliza como datos de entrada la señales de radiofrecuencia, genera esqueletos humanos en 3D a partir de las mismas y es capaz de reconocer las acciones e interacciones de varias personas a lo largo del tiempo".
Ese paso intermedio de convertir las señales de radio en esqueletos 3D (como los mostrados en la imagen que encabeza el artículo) resulta clave para el éxito de este sistema, al permitir que el modelo no sólo aprenda a partir de los datasets basados en radiofrecuencia, sino que también sea capaz de aplicar todos los datos recopilados hasta la fecha basados en la captura con visión computerizada.
De hecho, los investigadores empezaron grabando simultáneamente imágenes con luz visible y basadas en ondas de radio, con el objetivo de sincronizarlas y que la red neuronal se entrenara también simultáneamente con ambas: así podría establecer correlaciones entre los datos mostrados por una y otra. La introducción de los esqueletos 3D tuvo lugar cuando detectaron que al sistema le costaba aprender a diferenciar a una persona de su entorno circundante.
¿Facilitando la vigilancia?
Según explica Tianhong Li, uno de los coautores del 'paper', este modelo, bautizado como 'RF-Action', tiene "numerosas aplicaciones potenciales" en el campo de los hogares inteligentes y de la comprensión del comportamiento humano:
"Por ejemplo, detectar comportamientos anormales en los ancianos (para detectar si se caen dentro de su casa), monitorizar que los pacientes tomen sus medicamentos de manera adecuada o controlar a distancia dispositivos domésticos inteligentes mediante gestos".
En cuanto a la privacidad, todavía no hay que preocuparse por la posibilidad de que alguien nos someta a reconocimiento facial desde la casa de al lado, pues la baja resolución de las imágenes conseguidas no permite apreciar los rasgos faciales. Sin embargo, sí deberíamos temer una posible integración futura con la tecnología de reconocimiento postural desarrollada por los chinos.
Pero Li reconoce que aún les queda mucho trabajo por delante: hasta ahora, RF-Action sólo se ha probado usando una única pared y dentro de un rango de detección de 1-11 metros:
"La señal de radiofrecuencia se debilitará progresivamente según añadamos paredes, por lo que puede ser difícil conservar un equilibrio adecuado señal / ruido si añadimos demasiadas paredes".
Vía| SyncedReview
Imagen | MIT-CSAIL
Ver 10 comentarios
10 comentarios
Badgar Blak
No "sabe" qué haces, ya que tan sólo "opina" dependiendo de su entrenamiento previo. Hay mucha diferencia y, con una misma postura, puedes estar viendo la tele, echando una siesta, planeando el asesinato de todos los políticos españoles utilizando un tenedor de plástico o pensando en la mona de pascua. Ni siquiera con visión directa podemos saberlo, así que con esta IA, mucho menos.
Como mínimo, necesitaríamos imágenes de alta resolución en tiempo real para analizar expresiones faciales, cámara térmica para detectar actividad física actual o reciente y un sistema para analizar la actividad cerebral a distancia... y un supercomputador para procesar todo eso en tiempo real o con un retardo muy pequeño.
Vamos, que por ahora no es más preciso que una tabla de Excel con unas sencillas estadísticas.
valen1321
wallhack.... baneado capo
masterai
Flipante. Flipante vendida de humo. Claro, si cuando entreno esa inteligencia, resulta que todas las personas que están detrás de la pared llaman por telefono, cuando entre yo a una cabina o a una habitación y me dedique a hacer break dance dirá que yo también estoy llamando por teléfono. Vamos, super certero, que se vayan preparando los de los rayos X, que van a venir estos señores a cambiar el paradigma.
random34e14
Que vas a ver tu con esa cara.