El "Deepfake Detection Challenge" de Facebook ofrece resultados iniciales prometedores – TechCrunch


Los videos visualizados digitalmente llamados deepfakes no van a ninguna parte, pero si las plataformas quieren vigilarlos, primero deben encontrarlos. Este era el objetivo del "Deepfake Detection Challenge" de Facebook que se lanzó el año pasado. Después de meses de competencia, surgieron los ganadores y son … mejores que adivinar. Es un comienzo!

Desde su creación en el último año o dos, las falsificaciones profundas de juguetes de nicho para conferencias de IA se han convertido en un software fácil de descargar que cualquiera puede usar para crear videos falsos convincentes de figuras públicas.

"I & # 39; Descargamos generadores de deepfake en los que simplemente hace doble clic y ejecuta en un cuadro de Windows, no hay nada igual ", dijo Mike Schroepfer, CTO de Facebook, en una llamada de prensa.

Este es probablemente el primer año de elecciones en el que actores maliciosos intentan influir en la conversación política con videos falsos de candidatos creados de esta manera. Dada la precaria posición de Facebook en la opinión pública, les conviene afirmarse en contra de ella.

La competencia comenzó el año pasado con el debut de una nueva base de datos de imágenes falsas. Hasta entonces, había poco que jugar para los investigadores: un puñado de conjuntos de videos manipulados de tamaño mediano, pero nada más que la gran cantidad de datos que se utilizaron para evaluar y mejorar cosas como los algoritmos de visión por computadora.

Facebook pagó la factura con 3.500 actores que grabaron miles de videos, cada uno de los cuales era original y falso. También se han realizado otras modificaciones "distractoras" para obligar a cada algoritmo a detectar falsificaciones y prestar atención a la parte importante: la cara, obviamente.

Investigadores de todo el mundo participaron y presentaron miles de modelos tratando de decidir si un video es falso o no. Aquí hay seis videos, tres de los cuales son deepfakes. ¿Puedes decir qué es qué? (Encontrará las respuestas al final del artículo).

Inicialmente, estos algoritmos no eran mejores que el azar. Sin embargo, después de muchas iteraciones y algunas optimizaciones inteligentes, lograron identificar falsificaciones con una precisión de más del 80 por ciento. Desafortunadamente, la mayor precisión en la entrega de un conjunto reservado de videos que no se pusieron a disposición de los investigadores fue de alrededor del 65 por ciento.

Es mejor que lanzar una moneda, pero no mucho. Afortunadamente, esto era bastante esperado y los resultados son realmente muy prometedores. En la investigación de inteligencia artificial, el paso más difícil es pasar de la nada a algo; después de eso, se trata de mejorar cada vez más. Pero descubrir si la IA puede resolver el problema es un gran paso. Y la competencia parece indicar que esto es posible.

Ejemplos de un video fuente y varias versiones de distractores. Crédito de la foto: Facebook

Una nota importante es que el conjunto de datos creado por Facebook fue creado a propósito. Sea más representativo e inclusivo que otros, no solo más grande. Después de todo, la IA es tan buena como los datos que contiene, y el sesgo que se encuentra en la IA a menudo se puede atribuir al sesgo en el conjunto de datos.

"Si su conjunto de entrenamiento no tiene la variación adecuada. Si se ve gente real, su modelo no tiene una comprensión representativa de ello. Creo que hicimos todo lo posible para asegurarnos de que este conjunto de datos sea bastante representativo ”, dijo Schroepfer.

Pregunté si los grupos o tipos de rostros o situaciones tenían menos probabilidades de ser identificados como falsos o reales, pero Schroepfer no estaba seguro. En respuesta a mis preguntas sobre la representación en el conjunto de datos, el equipo explicó:

Tomamos en cuenta muchos factores al crear el conjunto de datos DFDC, y era importante que tuviéramos una representación en diferentes dimensiones, incluida la edad autoidentificada, Género y etnicidad. La tecnología de detección debe funcionar para todos, por lo que era importante que nuestros datos fueran representativos del desafío.

Los modelos ganadores se proporcionan como código abierto para que el resto de la industria actúe, pero Facebook está trabajando en su propio producto de reconocimiento de falsificación profunda, que Schropfer dijo que no se compartiría. La naturaleza controvertida del problema (los malos aprenden de lo que hacen los buenos y básicamente ajustan su enfoque) significa que decirles a todos exactamente lo que se está haciendo para evitar las falsificaciones puede ser contraproducente.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *