Siri Alexa Vulnerabilidad Hackers

Los asistentes de voz Siri, de la compañía Apple, y Alexa, de Amazon, son potencialmente vulnerables a los hackers, gracias a una nueva vulnerabilidad descubierta por investigadores de seguridad informática chinos. El error, específicamente en una falla de diseño, podría permitir a los hackers lanzar un nuevo tipo de ataque, llamado DolphinAttack, que les permitiría emitir comandos a modo de ‘susurro’ a los teléfonos inteligentes para llegar a Siri y Alexa.

El equipo de investigación, proveniente de la Universidad de Zhejiang, afirma en su informe que DolphinAttack permite a los hackers enviar comandos a las aplicaciones de los asistentes de voz por medio de frecuencias ultrasónicas que son demasiado altas para que el ser humano pueda oírlas, pero claramente audibles para los micrófonos de los dispositivos.

En concreto, el ataque permitiría a los hackers secuestrar aplicaciones de asistente de voz como Siri y Alexa y redireccionar a los usuarios a sitios web maliciosos. La vulnerabilidad, según los investigadores, afecta a las aplicaciones de asistente de voz de Apple, Google, Microsoft, Amazon, Samsung y Huawei.

Asimismo, afirmaron que a través de DolphinAttack, los hackers emitirían varios tipos de comandos, que van desde un simple “Hey Siri”, hasta realizar una llamada a un número específico de un Amazon Echo o un iPhone con el propósito de abrir la puerta trasera. El informe además revela lo siguiente:

Las distancias de ataque varían de 2 centímetros a 175 centímetros y muestran gran variación entre dispositivos. En particular, la distancia máxima que podemos alcanzar para ambos ataques es de 165 centímetros para el Amazon Echo.

Afirmaron que la distancia puede ser mayor si se utiliza un equipo que genere sonido con niveles de presión más altos y exhiben una mejor direccionalidad acústica, o incluso a través de comandos de voz más cortos y precisos.

Oath deberá pagar USD$5 millones por violación a la privacidad infantil en línea

¿Cómo protegerse del ataque?

Dado que la naturaleza de DolphinAttack requiere que las personas utilicen aplicaciones de asistente de voz, la manera más sencilla de mantenerse a salvo es desactivar Siri, Alexa o Google Assistant.

Ame Elliot, directora de diseño de SimplySecure, fijo que Silicon Valley tiene fallas al no pensar cómo un producto puede ser utilizado negativamente. De igual forma, expresó que los sistemas de voz son difíciles de asegurar, por lo que se requiere de un trabajo arduo para “deshacer la falta de soltura de la voz” y añadir más visibilidad sobre el funcionamiento del sistema.

Más en TekCrispy