Consiguen hackear a Google Assistant, Alexa y Siri disparando con láseres a móviles y altavoces inteligentes

Consiguen hackear a Google Assistant, Alexa y Siri disparando con láseres a móviles y altavoces inteligentes

Un grupo de investigadores ha descubierto una vulnerabilidad en la gran mayoría de altavoces inteligentes, que permitiría a los atacantes hackear algunos de los principales asistentes virtuales tales como el Asistente de Google, Siri o Alexa de la manera más insólita posible: disparando láseres.

Utilizando este tipo de haces de luz, los investigadores fueron capaces de inyectar comandos en los dispositivos de manera inaudible, que una vez interpretados por los asistentes, desencadenaban acciones tales como abrir puertas de garaje, encender o apagar luces, e incluso desbloquear coches, todo ello a una distancia máxima de hasta 110 metros gracias al alcance de los láseres.

Light Commands: así pueden hackear tu altavoz inteligente con un láser

Al parecer, el ataque se aprovecha de una vulnerabilidad descubierta en los micrófonos integrados en los altavoces inteligentes. Éstos micrófonos utilizan sistemas micro-electromecánicos --conocidos como MEMS, por sus siglas en inglés--, que responden a la luz de una manera similar que si fuese sonido. Una vez descubierta la vulnerabilidad, el trabajo de los investigadores consistía en apuntar con el láser al micrófono del altavoz en cuestión, que interpretaría la luz como señales eléctricas, y actuaría en consecuencia detectando los "comandos de luz".

Más llamativo aún es el hecho de que, para llevar a cabo el ataque, ni siquiera se requiere de un equipamiento costoso. Los investigadores fueron capaces de aprovecharse de la vulnerabilidad usando un puntero láser de poco menos de 6 euros, un amplificador de audio y un controlador de diodo láser de 300 euros. También es opcional el uso de un teleobjetivo, que permitiría apuntar el láser de una manera más precisa desde distancias lejanas.

Es conveniente destacar, además, que dado que los micrófonos de tipo MEMS son utilizados tanto en altavoces como en otros dispositivos electrónicos, los investigadores han descubierto que la mayoría de smartphones dotados de un asistente virtual también están expuestos a este tipo de ataques. No obstante, dado que algunos smartphones incluyen métodos de verificación de voz que determinan si el comando en cuestión proviene del usuario del dispositivo, aprovechar la vulnerabilidad en estos terminales no es tan sencillo como sí sucede en altavoces inteligentes del estilo deñ Google Nest Mini, que carece de cualquier tipo de sistema de verificación.

Desde Google aseguran estar analizando a fondo la investigación con el objetivo de encontrar una solución a este problema de seguridad. No obstante, los investigadores detrás de Light Command se muestran algo menos optimistas, y aseguran que dada la naturaleza de esta vulnerabilidad, no será fácil ponerle solución, y sugieren parches como obligar al usuario a pronunciar en voz alta un PIN numérico, además de recomendar a los fabricantes dotar a los futuros modelos de mecanismos de protección como micrófonos situados en partes opuestas del dispositivo, o algún tipo de "escudo" que evite la incidencia de luz en el micrófono.

Para estar siempre al día con lo último en tecnología, suscríbete a nuestro canal oficial y verificado de Andro4all en WhatsApp.

Para ti
Queremos saber tu opinión. ¡Comenta!