Los deepfakes no son muy buenos, y tampoco lo son las herramientas para reconocerlos


  Una comparación de un video original y falso del CEO de Facebook Mark Zuckerberg.
Ampliar / Una comparación de un video original y falso del CEO de Facebook Mark Zuckerberg.

Tenemos suerte de que los videos profundos no sean un gran problema todavía. El mejor detector de deepfake que resultó de un esfuerzo liderado por Facebook para combatir los videos alterados solo captaría aproximadamente dos tercios de ellos.

En septiembre, a medida que aumentaban las especulaciones sobre el riesgo de falsificaciones profundas, Facebook pidió a los asistentes de inteligencia artificial que desarrollaran técnicas para detectar videos falsos. En enero, la compañía también prohibió las falsificaciones profundas que se utilizaron para difundir información errónea.

El Deepfake Detection Challenge de Facebook fue operado en colaboración con Microsoft, Amazon Web Services y la asociación de inteligencia artificial a través de Kaggle, una plataforma para codificar concursos de Google. Ofreció una extensa colección de videos de intercambio de caras: 100,000 clips falsos creados por Facebook con actores pagados y en los cuales los participantes probaron sus algoritmos de detección. El proyecto atrajo a más de 2,000 participantes de la industria y la ciencia, y generó más de 35,000 modelos de detección de falsificación profunda.

El mejor modelo que surgió de la competencia descubrió las falsificaciones profundas de la colección de Facebook poco más del 82 por ciento de las veces. Pero cuando este algoritmo se probó contra una serie de deepfakes nunca antes vistos, su rendimiento cayó a poco más del 65 por ciento.

"Está bien y es bueno ayudar a los moderadores humanos, pero obviamente no es tan preciso como se necesita", dice Hany Farid, profesor de UC Berkeley y autoridad forense digital, que está involucrado está familiarizado con el proyecto liderado por Facebook. "Hay que cometer errores del orden de mil millones, algo así".

Deepfakes usa inteligencia artificial para transferir digitalmente la cara de una persona a otra, haciendo que parezca que esa persona hizo y dijo cosas que nunca hizo. Por el momento, la mayoría de los deepfakes son extraños y divertidos. Algunos han aparecido en anuncios inteligentes .

La preocupación es que un día las falsificaciones profundas podrían convertirse en un arma particularmente poderosa y efectiva para la desinformación política, el discurso de odio o el acoso que se propaga viralmente en plataformas como Facebook. El criterio para los deepfakes es preocupantemente bajo porque los programas simples de apuntar y hacer clic se basan en algoritmos de IA que ya están disponibles de forma gratuita.

"Frustrado"

"Estaba personalmente frustrado con la cantidad de tiempo y energía que los investigadores inteligentes han hecho mejores falsificaciones", dijo Mike Schroepfer, director de tecnología de Facebook. Él dice que el desafío apunta a "promover un enfoque amplio de la industria en herramientas y tecnologías que nos ayuden a reconocer estas cosas para que, cuando se usen maliciosamente, tengamos enfoques escalados para combatirlas".

Schroepfer observó los resultados de The Challenge fue impresionante porque los participantes solo tenían unos pocos meses. Los deepfakes todavía no son un gran problema, pero Schröder dice que es importante estar preparado si están armados. "Realmente quiero estar preparado para muchas cosas malas que nunca suceden y no al revés", dice Schroepfer.

El algoritmo con la puntuación más alta del desafío deepfake fue escrito por Selim Seferbekov, un ingeniero de aprendizaje automático, en Mapbox, que se encuentra en Minsk, Bielorrusia; Ganó $ 500,000. Seferbekov dice que no está particularmente preocupado por las falsificaciones profundas por ahora.

"Por el momento, su uso malicioso, si lo hay, es bastante menor", dice Seferbekov. Sin embargo, sospecha que los enfoques mejorados para el aprendizaje automático podrían cambiar esto. "Podrían tener algún impacto en el futuro, al igual que las noticias falsas de hoy". El algoritmo de Seferbekov será de código abierto para que otros puedan usarlo.

Katz und Maus

Capturar deepfakes con IA es algo así como un juego de gato y ratón. Se puede entrenar un algoritmo detector para detectar falsificaciones profundas, pero luego se puede entrenar un algoritmo que crea falsificaciones para evitar la detección. Schroepfer dice que esto generó algunas preocupaciones sobre la publicación del código del proyecto, pero Facebook concluyó que valía la pena el riesgo de atraer a más personas al esfuerzo.

Facebook ya está utilizando tecnología para detectar automáticamente algunas falsificaciones profundas, dice Schroepfer. Sin embargo, la compañía se negó a decir cuántos videos falsos fueron etiquetados de esta manera. Parte del problema con la automatización de la detección de falsificación profunda es, según Schroepfer, que algunos son entretenidos mientras que otros podrían hacer daño. En otras palabras, al igual que otras formas de información errónea, el contexto es importante. Y eso es difícil de entender para una máquina.

Según Farid de UC Berkeley, podría ser aún más difícil crear un detector de deepfake realmente útil de lo que sugiere la competencia, ya que están surgiendo nuevas técnicas rápidamente y un fabricante malicioso de deepfake puede estar trabajando duro para burlar a un detector en particular.

Farid cuestiona el valor de dicho proyecto cuando Facebook es reacio a monitorear el contenido que los usuarios cargan. "Si Mark Zuckerberg dice que no somos los árbitros de la verdad, ¿por qué estamos haciendo esto?" él pide.

Incluso si las políticas de Facebook cambian, Farid dice que la compañía de redes sociales enfrenta desafíos más apremiantes cuando se trata de información errónea. "Si bien los deepfakes son una amenaza emergente, te animo a que no te distraigas demasiado con ellos", dice Farid. "Todavía no lo necesitamos. Las cosas simples funcionan".

Esta historia apareció originalmente en wired.com.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *