Photo: AP Images.

Un equipo de investigadores ha descubierto que es posible controlar los asistentes virtuales Siri, Alexa y Google Assistant, de Apple, Amazon y Google, respectivamente, mediante mensajes imposibles de detectar por el oído humano que pueden ser escondidos en cualquier vídeo o canción.

Advertisement

Los investigadores, un grupo de estudiantes de las universidades de California, Berkeley y Georgetown en Estados Unidos, anunciaron su hallazgo al New York Times, afirmando que podr√≠a suponer un riesgo de seguridad para los usuarios de altavoces inteligentes. Adem√°s, explican que los asistentes no est√°n siendo hackeados sino enga√Īados.

El equipo fue capaz de dar √≥rdenes a Siri, Alexa y Google Assistant escondiendo mensajes en m√ļsica e incluso en ruido blanco. Esto quiere decir que un atacante podr√≠a esconder los mensajes subliminales tanto en canciones de la radio como en v√≠deos de YouTube, y activar los asistentes virtuales sin que el usuario se percate de ello, lo que les permitir√≠a abrir p√°ginas web, enviar mensajes, realizar llamadas e incluso a√Īadir objetos a listas de compras, entre otras cosas.

En el caso de los dispositivos inteligentes para el hogar conectado, los riesgos son a√ļn mayores, dado que un atacante podr√≠a apagar las luces e incluso abrir o cerrar puertas. Al publicar su hallazgo los investigadores quieren alertar a las compa√Ī√≠as detr√°s de estos asistentes para que solucionen el problema cuanto antes. [The New York Times v√≠a TechCrunch]