Los investigadores identifican docenas de palabras que activan accidentalmente los hablantes de Amazon Echo


A medida que los asistentes de voz, como el Asistente de Google y Alexa, penetran en el Internet de las cosas, se hace cada vez más difícil realizar un seguimiento de cuándo se envían grabaciones de audio a la nube y quién puede tener acceso a ellas. Para detectar violaciones, los investigadores de la Universidad de Darmstadt, la Universidad Estatal de Carolina del Norte y la Universidad de París Saclay LeakyPick desarrollaron una plataforma que verifica regularmente los dispositivos con un micrófono y monitorea el tráfico de red posterior para detectar patrones que indiquen la transmisión de audio. Dicen que se han identificado "docenas" de palabras que disparan accidentalmente los altavoces Amazon Echo.

El uso de asistentes de voz podría aumentar, a partir de 2019, se estima que se usaron 4.25 mil millones de asistentes en dispositivos en todo el mundo, según Statista, pero las preocupaciones de privacidad no han disminuido. Los informes han demostrado que las activaciones accidentales han dejado a los trabajadores contratados expuestos a conversaciones privadas. El riesgo es que las firmas de abogados como Mischon de Reya han aconsejado a los empleados que silencien los parlantes inteligentes al hablar sobre los problemas de los clientes en el hogar.

LeakyPick fue desarrollado para identificar grabaciones y transmisiones de voz ocultas e identificar dispositivos potencialmente vulnerables. El prototipo de los investigadores, construido en una Raspberry Pi por menos de $ 40, regularmente hace ruidos audibles cuando un usuario está fuera y monitorea el tráfico utilizando un enfoque estadístico que se aplica a varios dispositivos controlados por voz. [19659002]   LeakyPick

VB Transform 2020 en línea – 15-17 Julio. Únase a los principales líderes de IA: regístrese para la transmisión en vivo gratuita.

LeakyPick, que según los investigadores es 94% preciso para reconocer el tráfico de voz, funciona tanto para dispositivos que usan una palabra de activación como para dispositivos que no lo hacen, como cámaras de vigilancia y detectores de humo. En el primer caso, está preconfigurado para preceder sondas con palabras de alerta y ruidos conocidos (por ejemplo, "Alexa", "Hey Google"), y "Ráfaga" se busca a nivel de red cuando no se utilizan dispositivos con micrófono Enviar Por lo general, no hay muchos datos para aumentar el tráfico de red. Se utiliza un paso de prueba estadística para filtrar casos en los que las ráfagas resultan de transmisiones que no son de audio.

Para identificar palabras que podrían desencadenar incorrectamente una grabación de voz, LeakyPick usa todas las palabras en un diccionario de fonemas con el mismo número de fonemas o uno similar en comparación con las palabras de activación reales. (Los fonemas son las unidades de sonido perceptivamente diferentes en un idioma que distinguen una palabra de otra, como p b d y t en las palabras en inglés pad pat bad y bat .) También palabras aleatorias de una simple lista de palabras verbalizadas en inglés.

Los investigadores probaron LeakyPick con un Echo Dot, un Google Home, un HomePod, un Netatmo Welcome and Presence, un Nest Protect y un Hive Hub 360 utilizando Hive View para evaluar el rendimiento. Después de crear estadísticas básicas de ráfaga y sondeo, monitorearon el tráfico en vivo de los ocho dispositivos y seleccionaron aleatoriamente un conjunto de 50 palabras de las 1,000 palabras más comúnmente usadas en inglés, junto con una lista de dispositivos activados por voz conocidos. Posteriormente, los usuarios de tres hogares permitieron que los tres altavoces inteligentes (Echo Dot, HomePod y Google Home) interactuaran durante un período de 52 días.

El equipo midió la precisión de LeakyPick registrando las marcas de tiempo en las que los dispositivos escuchaban los comandos. Utilice pantallas como el anillo LED alrededor del Echo Dot. Un sensor de luz permitió que LeakyPick marcara cada vez que se activaban los dispositivos, mientras que un altavoz de 3 vatios conectado al Pi a través de un amplificador produjo sonido y un dongle USB Wi-Fi registró el tráfico de red.

En un experimento que consistía en probar LeakyPicks para identificar palabras de alerta desconocidas, los investigadores configuraron el Echo Dot para usar la palabra de advertencia estándar "Alexa". LeakyPick reprodujo varias entradas de audio y esperó dos segundos para asegurarse de que el altavoz inteligente "escuchara" la entrada. Según los investigadores, el Echo Dot respondió de manera "confiable" a 89 palabras en varias rondas de prueba, algunas de las cuales eran fonéticamente diferentes de "Alexa", como "Alachah", "Lechner" y "Electrotelegraphic".

 LeakyPick

Las 89 palabras transmitieron audio a Amazon – resultados que provienen de otro estudio que identificó 1,000 frases que identificaron dispositivos con Alexa, Siri y Google Assistant La función de activación es incorrecta, no es sorprendente. Los coautores de este documento, que aún no se ha publicado, le dijeron a Ars Technica que en algunos casos los dispositivos envían el audio a servidores remotos, donde los mecanismos de verificación "más robustos" también confunden las palabras con palabras de alerta.

"Los micrófonos se utilizan cada vez más como dispositivos inteligentes de IoT para el hogar, y existe una creciente necesidad de medidas de protección prácticas para la privacidad", escribieron los desarrolladores de LeakyPick. "LeakyPick es un enfoque prometedor para mitigar una amenaza real a la privacidad de los hogares inteligentes".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *