Google publica un módulo experimental TensorFlow que prueba la privacidad de los modelos de IA


Google lanzó hoy un módulo experimental para TensorFlow Privacy, el kit de herramientas TensorFlow que protege la privacidad, que se puede utilizar para evaluar las características de protección de datos de varios clasificadores de aprendizaje automático. La compañía planea construir las bases para un conjunto de pruebas de protección de datos que puede ser utilizado por cualquier desarrollador de IA, independientemente de su nivel de conocimiento.

Los méritos de varias técnicas de protección de datos de IA siguen siendo un tema de debate dentro de la comunidad. No existen pautas canónicas para crear un modelo privado, pero un número creciente de investigaciones sugiere que los modelos de IA pueden perder información confidencial de los registros de capacitación, lo que representa un riesgo de privacidad. El enfoque de reducción preferido por la privacidad de TensorFlow es la privacidad diferenciada, donde se agrega ruido para ocultar ejemplos individuales en los datos de entrenamiento. Sin embargo, este ruido está diseñado para los peores escenarios académicos y puede afectar significativamente la precisión del modelo.

Esto motivó a los investigadores de Google a buscar una alternativa en caso de ataques de inferencia a los miembros. El método para los ataques de inferencia a miembros soportados por el nuevo módulo de protección de datos TensorFlow crea clasificadores que indican si cierta muestra estaba presente en el conjunto de datos de entrenamiento. Cuanto más preciso es el clasificador, más memoria hay y menos amigable para la protección de datos es el modelo. La intuición es que los atacantes que hacen predicciones con alta precisión pueden descubrir con éxito qué datos se usaron en el conjunto de entrenamiento. [19659002] Las pruebas proporcionadas por el nuevo módulo son pruebas de caja negra, es decir, solo usan las salidas de los modelos y no las partes internas (pesos) o los patrones de entrada. Crean un valor de vulnerabilidad que determina si el modelo pierde información del conjunto de capacitación y no requieren capacitación, lo que los hace relativamente fáciles de hacer.

VB Transform 2020 en línea – 15.-17. Julio. Únase a los principales líderes de IA: regístrese para la transmisión en vivo gratuita.

“Después de usar las pruebas de inferencia de miembros internamente, las compartimos con los desarrolladores para ayudarles a construir modelos más privados, explorar mejores opciones de arquitectura y usar técnicas de regularización como la detención temprana. Abandono, pérdida de peso y expansión de entrada o recopilación de más datos ", escribió Shuang Song de Google Brain y el desarrollador de software de Google David Marn en una publicación en el blog TensorFlow. "En última instancia, estas pruebas pueden ayudar a la comunidad de desarrolladores a identificar más arquitecturas que incorporan principios de diseño de privacidad y opciones de procesamiento de datos".

Google dice que investigará la viabilidad de extender los ataques de inferencia a miembros más allá de los clasificadores y desarrollará nuevas pruebas en el futuro. También se planea agregar la nueva prueba al ecosistema TensorFlow al integrarlo en TensorFlow Extended (TFX), una plataforma de extremo a extremo para proporcionar tuberías para el aprendizaje automático en la producción.

En noticias relacionadas, Google agregó hoy soporte para Go y Java en la biblioteca básica de protección de datos diferenciada que se lanzó como una versión de código abierto el verano pasado. Además, Privacy on Beam se puso a disposición, una solución de extremo a extremo para la protección diferencial de datos basada en Apache Beam (un modelo y una serie de SDK específicos del idioma) y basado en los bloques de construcción subordinados de la biblioteca de protección diferencial de datos y combinándolos Solución "lista para usar" que se encarga de los pasos que son esenciales para una privacidad diferenciada. Además, Google ha lanzado una nueva herramienta de distribución de pérdida de privacidad para rastrear los presupuestos de privacidad que permite a los desarrolladores estimar los costos totales de privacidad del usuario para las colecciones de diferentes consultas privadas y evaluar mejor el impacto general de sus tuberías.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *