Este aparato envía y ejecuta órdenes en Alexa, Siri o Google que son imperceptibles para el oído humano

Los asistentes de voz son prácticamente una característica esencial de los smartphones actuales, por si esto fuera poco, cada vez más altavoces inteligentes llegan a los hogares. Escuchan nuestras órdenes y las de personas que están en nuestro entorno, pero pueden escuchar incluso órdenes que el oído humano no percibe.

Que Burguer King haga un anuncio activando el asistente de Google es inofensivo y hasta gracioso. Si un presentador de televisión activa Alexa y compra una casa de muñecas es más molesto. Pero si un aparato consigue invocar y dar órdenes al asistente sin que nosotros lo oigamos, es preocupante.

El sonido adecuado para que tan sólo el asistente virtual lo entienda

Un grupo de investigadores de la Universidad de California, Berkley ha conseguido crear un aparato capaz de emitir sonidos imperceptibles para el ser humano. Para el ser humano, pero no para los asistentes de voz, que escuchan estos sonidos y obedece a las ordenes que se les pide. La clave está en engañar al asistente de voz y ofrecerle una serie de sonidos que entienda como órdenes.

¿Cómo es posible algo así? Los sistemas de voz normalmente traducen los sonidos que reciben en letras, palabras o frases. El aparato de estos investigadores modifica el archivo de audio para anular el sonido real y sustituirlo por sonido prácticamente indetectable para un oído humano pero con la información suficiente para que el micrófono del asisten lo detecte y entienda.

Los comandos que se le pueden introducir son los mismos que una persona pueda ordenarle al asistente de forma normal. Abrir sitios web, iniciar llamadas, enviar mensajes, comprar productos... Según los investigadores, la única limitación que tiene el aparato (por ahora) es que se debe encontrar cerca del asistente receptor. Aseguran que si ellos han podido hacerlo, seguramente haya más agentes realizándolo y no lo sepamos.

Qué están haciendo los fabricantes de altavoces inteligentes al respecto

Evitar falsos positivos es uno de los principales esfuerzos de los fabricantes de asistentes de voz y altavoces inteligentes. Alexa de Amazon por ejemplo pide una autenticación por código para realizar compras y permite poner ciertas limitaciones a qué tipo de acciones puede realizar. Por su parte, el asistente de Google puede detectar y reconocer la voz para no activarse si no es una voz reconocida.

En el caso de Apple con Siri y su altavoz inteligente HomePod también se puede configurar para recibir órdenes tan sólo de voces previamente reconocidas. Apple también limita las acciones que Siri puede realizar, todo lo que implique un riesgo de seguridad mayor no está permitido o requiere un código de autenticación en el iPhone o iPad.

Vía | The New York Times
En Xataka | Cuando en la tele repiten la orden de comprar a Alexa de Amazon

Ver todos los comentarios en https://www.xataka.com

VER 6 Comentarios

Portada de Xataka