Es obvio que hay una clara ventaja al tener dispositivos que siempre están escuchando comandos de voz, porque significa que puedes acceder desde una distancia y no necesitas tocar ningún botón para que tu dispositivo haga lo que quieras. Desde luego, es mucho más eficiente que perder el tiempo tecleando los comandos, ¿no creéis? Sin embargo, también hay una desventaja y es, precisamente, que siempre está escuchando. Al tener activados los comandos de voz, nuestro dispositivo está siempre atenta, y además de que esto puede poner en riesgo nuestra privacidad también puede suponer una brecha en nuestra seguridad.

Por supuesto, las compañías siempre niegan que estén escuchando o grabando nuestras conversaciones, pero el hecho de que nuestros dispositivos estén constantemente a la expectativa de palabras desencadenantes puede ser desconcertante para algunos. De hecho, los investigadores recientemente descubrieron que los comandos maliciosos para los asistentes digitales en realidad se pueden ocultar dentro de las canciones.

Siri puede reaccionar a comandos maliciosos escondidos en canciones

Esta información nos llega de la mano de los investigadores de Berkeley, que recientemente publicaron un documento llamado «CommanderSong» que muestra cómo los comandos de voz pueden ocultarse dentro de la música. Además, los investigadores de la Universidad de Zhejiang en Princeton y China han demostrado lo que llaman el «DolphinAttack«.

Aquí es donde ocultan comandos maliciosos dentro de la música que el oído humano ni siquiera puede escuchar, lo que a su vez activará a Siri y hará que haga ciertas cosas, como tomar fotos, hacer llamadas telefónicas, etc. Hasta el momento no ha habido informes de tales ataques o el uso de estos exploits en el mundo real, pero esto es probablemente algo que empresas como Amazon Apple, y Google deberían considerar. Si no queréis poneros en peligro, lo más recomendable es deshabilitar los comandos de voz y perder algo de tiempo tecleando nuestros comandos, ¡es más seguro!