Expuesto: 1,000 oraciones que Alexa, Siri y el Asistente de Google disparan incorrectamente


<img src = "https://cdn.arstechnica.net/wp-content/uploads/2020/06/game-of-thrones-alexa-800×450.jpg" alt = "Revelado: 1,000 frases, la Alexa , Siri y el Asistente de Google Escuchar incorrectamente las conversaciones cercanas puede ser un riesgo mayor que un beneficio para los usuarios, y una nueva investigación sugiere que las amenazas a la privacidad pueden ser mayores de lo que se pensaba anteriormente.

Los resultados muestran cómo los diálogos frecuentes en programas de televisión y otras fuentes crean disparadores falsos que hacen que los dispositivos se enciendan y, a veces, envíen sonidos cercanos a Amazon, Apple, Google u otros fabricantes. En total, los investigadores descubrieron más de 1,000 secuencias de palabras, incluidas las de Game of Thrones Modern Family House of Cards y programas de noticias – que fueron activados incorrectamente por los dispositivos.

"Los dispositivos son intencionalmente algo programaron el perdón porque deberían entender a su gente ", dijo una de las investigadoras, Dorothea Kolossa. "Por lo tanto, tienden a comenzar con demasiada frecuencia en lugar de no hacerlo en absoluto".

Lo que no se puede decir

Ejemplos de palabras o secuencias de palabras que proporcionan disparadores falsos son

  • Alexa: "Inaceptable," elección "y" una letra "
  • Google Home:" OK, genial " y "Ok, quien lee"
  • Siri: "una ciudad" y "Hey Jerry"
  • Microsoft Cortana: "Montana"

Los siguientes dos videos muestran un cartel GoT con el La inscripción "una carta" y el letrero Modern Family que pronuncia "hey Jerry" y activa Alexa o Siri 19659012] Activador de accidente n. ° 1 – Alexa – Cloud

Activador de accidente n. ° 3 – Hey Siri – Nube

En ambos casos, las frases activan el dispositivo localmente, usando algoritmos para analizar las frases, y después de que los dispositivos determinan erróneamente que es probable que sea una palabra de activación, envían el audio a servidores remotos que son más robustos Los mecanismos de verificación también confunden palabras con términos de activación . En otros casos, las palabras o frases solo simulan el reconocimiento local de las palabras de activación, no los algoritmos en la nube.

Interferencia inaceptable con la privacidad

Cuando los dispositivos se activan, los investigadores registran parte de lo que se ha dicho y lo transfieren al fabricante. El audio puede ser transcrito y verificado por los empleados para mejorar el reconocimiento de palabras. El resultado: fragmentos de conversaciones potencialmente privadas pueden terminar en minutos de la empresa.

El riesgo para la privacidad no es solo teórico. En 2016, las agencias policiales que investigan un asesinato citaron a Amazon por los datos de Alexa transmitidos en los momentos previos al crimen. El año pasado, The Guardian informó que los empleados de Apple a veces transcriben conversaciones sensibles que Siri escuchó. Esto incluye conversaciones privadas entre médicos y pacientes, negocios, negocios aparentemente criminales y encuentros sexuales.

El trabajo de investigación titulado "Inaceptable, ¿dónde está mi privacidad?" Es producto de Lea Schönherr, Maximilian Golla y Jan Wiele, Thorsten Eisenhofer, Dorothea Kolossa y Thorsten Holz de la Universidad Ruhr Bochum y el Instituto Max Planck de Seguridad y Protección de Datos. En un breve resumen de los resultados, escribieron:

Nuestra configuración fue capaz de identificar más de 1,000 secuencias que disparan incorrectamente altavoces inteligentes. Por ejemplo, hemos encontrado que "Alexa" responde a las palabras "inaceptable" y "elección" dependiendo de la pronunciación, mientras que "Google" a menudo desencadena "OK, cool". "Siri" puede ser engañado por "una ciudad", "Cortana" por "Montana", "computadora" por "Peter", "Amazonas" por "y la zona" y "Echo" por "tabaco". Mira videos con ejemplos de tales disparadores aleatorios aquí.

En nuestro artículo analizamos diferentes fuentes de audio, examinamos prejuicios lingüísticos y específicos de género y medimos la reproducibilidad de los desencadenantes identificados. Para comprender mejor los desencadenantes aleatorios, describimos un método para crearlos artificialmente. Al realizar ingeniería inversa en el canal de comunicación de un Amazon Echo, podemos proporcionar nuevas ideas sobre cómo las empresas comerciales tratan con desencadenantes tan problemáticos en la práctica. Finalmente, analizamos los efectos de los disparadores accidentales en la protección de datos y discutimos los posibles mecanismos para mejorar la protección de datos de los altavoces inteligentes.

Los investigadores analizaron asistentes de voz de Amazon, Apple, Google, Microsoft y Deutsche Telekom, así como tres modelos chinos de Xiaomi, Baidu y Tencent. Los resultados publicados el martes se centraron en los primeros cuatro. Representantes de Amazon, Apple, Google y Microsoft no respondieron de inmediato a una solicitud de comentarios.

El documento completo aún no se ha publicado y los investigadores se negaron a proporcionar una copia con anticipación. Sin embargo, los resultados generales ya proporcionan evidencia adicional de que los asistentes de voz pueden interferir con la privacidad del usuario, incluso si los usuarios no creen que sus dispositivos estén escuchando. Para aquellos que están preocupados por el problema, puede tener sentido no mantener a los asistentes de voz conectados, apagados o bloqueados para que no escuchen a menos que sea necesario, o no usarlos en absoluto.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *