Bienvenido a Chechenia: el documental de HBO muestra cómo los deepfakes pueden hacer algo bueno


  Open Sourced Logo

Caroline McGinnes puede ser una de las pocas personas en el mundo que sabe lo que es darle una cara a alguien. En un nuevo documental de HBO, sus ojos, nariz y boca ayudan a enmascarar la identidad de las personas LGBTQ en Chechenia, la república predominantemente musulmana en Rusia. En esencia, McGinnes se ofreció para ser una falsa profunda, como pocos han visto antes.

Las personas LGBTQ fueron fuertemente perseguidas en Chechenia, incluida la detención ilegal, la tortura y otras formas de abuso. Dado que los sobrevivientes rara vez pueden revelar su propia identidad, el equipo detrás de la película Bienvenido a Chechenia recurrió a la misma tecnología que normalmente se encuentra en los videos falsos. Usan inteligencia artificial para superponer rostros voluntarios con los de los sobrevivientes. Esta aplicación de tecnología tipo deepfake puede reemplazar los métodos más tradicionales de mantener las fuentes anónimas, p. B. déjelos sentarse a la sombra o difuminar sus rostros. La tecnología también ayuda a representar mejor las emociones de los sobrevivientes.

"Deepfake" se ha convertido en una abreviatura de una variedad de técnicas tecnológicas, pero generalmente se entiende como inteligencia artificial utilizada para cambiar el video y el audio de modo que parezca que alguien está diciendo o haciendo algo él en realidad no tiene. El término proviene del nombre de un usuario de Reddit que utilizó el aprendizaje automático para convertir rostros de celebridades en videos porno sin su consentimiento. Pero una industria más amplia ha comenzado a promover formas similares de manipulación de medios basada en IA, a veces denominadas medios sintéticos, que no son necesariamente tan vergonzosas.

Caras como este video falso de Barack Obama (o Mark Zuckerberg o Kim Kardashian) pueden no verse bien porque los videos falsos viven en el misterioso valle. Bienvenido a Chechenia advierte a los espectadores que se está introduciendo tecnología y que la "doble cara" a veces puede aparecer borrosa, casi como una acuarela. Para las personas cuyas caras aparecen en la película, la experiencia, según McGinnes, puede ser "bastante surrealista".

"Graban todos los huecos en tu cara", le dijo a Recode, "y van con todo, ojos, tu mandíbula, todo. "

Bienvenido a Chechenia, que se estrena en HBO y HBO Max el 30 de junio, es un raro ejemplo positivo de deepfakes. Con la ayuda de la tecnología deepfake, la película puede iluminar las violaciones de los derechos humanos y al mismo tiempo el riesgo para quienes están en Minimice la producción de víctimas involucradas.

La tecnología Deepfake ahora se sabe que es más dañina para las personas que ayudarlas, y las mujeres son mucho más propensas a verse afectadas por tecnologías falsas profundas. Un informe reciente del grupo de investigación Deeptrace encontró que casi todos Los deepfakes que se encuentran en línea están contenidos en videos porno no consensuales. Otra preocupación importante es que los deepfakes pueden usarse para pretender ser figuras políticas y promover campañas de desinformación, lo que podría exacerbar el problema ya extendido de noticias falsas en Internet.

Sin embargo, podría la promesa de un tipo falso La tecnología para anonimizar a las personas se está volviendo cada vez más popular, dijeron expertos a Recode, lo que dificulta el debate sobre la ética y la regulación de este uso controvertido de la inteligencia artificial.

Deepfakes puede proporcionar un anonimato de capa

El hombre detrás Bienvenido a Chechenia es el experto en efectos visuales Ryan Laney, quien dice que la tecnología utilizada en la película mueve las caras esencialmente como títeres. En pocas palabras, los movimientos faciales de los que aparecen en el documental muestran cómo se mueven las caras de los "doppelgangers" utilizando la tecnología de aprendizaje profundo.

"Las cejas y las formas de los ojos se convierten en pinceladas", explicó Laney. "Así que asumimos el contenido de los temas en la película y aplicamos el estilo de los activistas". (El equipo de la película se refiere a las personas que se ofrecieron como voluntarias para ser "activistas".)

A los voluntarios se les filmaron sus caras desde diferentes ángulos, y sus caras se mapearon en las caras de las personas que estaban en Bienvenido a Chechenia .
HBO

En última instancia, la idea era "crear una prótesis digital que tenga el 100 por ciento del movimiento, la emoción y la esencia de lo que el sujeto está haciendo". Esencialmente, la técnica se convertiría en la forma de un ojo Cambie a la persona de una manera sutil, pero no el hecho de que esté parpadeando.

Otro desafío era evitar el valle misterioso. Este término se usa con más frecuencia para discutir cómo deberían ser los robots realistas. Para responder a esta pregunta, la película hizo que Thalia Wheatley, una psicóloga social y neurocientífica en Dartmouth, y el estudiante graduado Chris Welker, probaran diferentes enfoques de las capas faciales y vieran cómo reaccionó la audiencia piloto. Por ejemplo, intentaron una adaptación cómica de los rostros de los sobrevivientes, que Wheatley comparó con las animaciones de la película Spiderman: Into the Spiderverse. Estos hicieron lo peor, dijeron los investigadores.

Otra versión implicaba enmascarar la cara, pero mantener los ojos de las personas originales, lo que los investigadores creían que podría ayudar a las personas a conectarse con el tema. Realmente tampoco funcionó.

"Creemos que la respuesta es que se ponen los ojos de una persona en la cara de otra persona y el cerebro simplemente no puede resolver el desajuste. Simplemente se siente problemático y saca a la gente de la experiencia". Wheatley dijo. "Pero realmente no lo sabemos".

La idea de usar deepfakes para anonimizar a las personas se está volviendo cada vez más popular.

Laney dice que ahora está trabajando para finalmente democratizar esta nueva tecnología de deepfake. Con una nueva compañía, Teus Media, quiere convertir su inteligencia artificial en un "velo digital" periodístico para disfrazar a testigos vulnerables, y dice que ya ha recibido interés. Pero Laney no es el único que impulsa este enfoque.

Algunas startups como D-ID y Alethea AI quieren que las personas utilicen avatares de tipo falso para camuflarse digitalmente. Investigadores de la Universidad de Ciencia y Tecnología de Noruega y la Universidad de Albany también han trabajado en tecnologías similares.

El Director del Centro Nacional de Medios Forenses en la Universidad de Colorado en Denver, Catalin Grigoras, enfatiza que los problemas éticos relacionados con los medios sintéticos se plantean cuando parecen asumir aspectos de la realidad. Nadie tiene problemas con las caras falsas creadas en las películas de Hollywood, pero surgen problemas, por ejemplo, cuando se usan para crear mensajes falsos. En cuanto a Bienvenido a Chechenia el uso de la tecnología deepfake está bien.

"Es solo una nueva película que tiene este tipo de efectos visuales", dijo Grigoras. "Son bastante buenos, pero aún es posible detectarlos".

Sam Gregory, director del programa de Witness, una organización sin fines de lucro de derechos humanos que se enfoca en video y tecnología, dice que los activistas con los que habló lo convirtieron en uno de los pocos usos convincentes de la tecnología. Gregory se refiere a las mujeres que usaron máscaras virtuales en Snapchat para compartir sus experiencias de agresión sexual a través de video sin revelar su identidad.

"En los últimos años, uno de los usos potenciales más positivos de los deepfakes ha sido preservar los rasgos humanos y la capacidad de transmitir emociones y mantener la humanidad esencial de las personas que han sido sometidas a terribles abusos", dijo Gregory.

Sin embargo, Gregory advierte que las falsificaciones profundas utilizadas para el anonimato no carecen de preguntas éticas. Por ejemplo, se pregunta en qué medida una doble cara debe coincidir con la identidad y las características, como la raza, el género y la edad, de la persona cuya identidad están ocultando. Gregory agrega que si bien esta tecnología podría ayudar a los activistas, también podría usarse para tergiversar y atacarla.

Espere más argumentos para los medios sintéticos legítimos.

Cuando se le hacen preguntas a Laney sobre deepfakes, le damos la bienvenida a Chechenia de que su tecnología no cuenta técnicamente, porque “los deepfakes como práctica no son naturalmente consensuales. "Para él, la inteligencia artificial utilizada en la película requería tanto el consentimiento de los cineastas para el anonimato como el consentimiento de los activistas que se ofrecieron voluntariamente. Laney también enfatizó que nadie está tratando de burlar a la audiencia. Conocen la tecnología y que se utiliza para comunicar hasta qué punto estas personas están en riesgo.

Esto refleja lo que dijo una compañía llamada Synthesia, y la startup, que vende tecnologías similares para medios sintéticos, se ha comprometido a su Tecnología similar a Deepfake no para uso público, y prometió "nunca imitar a nadie sin su consentimiento expreso", incluidos "políticos o celebridades con fines satíricos". ”

Actualmente no existe una ley federal que restrinja la producción de deepfakes Estados Unidos regula expresamente, aunque algunos estados están interesados ​​en La regulación tecnológica y algunos dicen que las leyes existentes ya pueden aplicarse. Mientras tanto, las compañías de redes sociales como Facebook y Twitter también han tratado de crear reglas para moderar el uso de la tecnología en sus plataformas.

Pero los deepfakes son parte de una industria en evolución. A medida que la tecnología se vuelve más conocida, deberíamos esperar que más personas aboguen por casos de uso legítimos, o al menos aquellas aplicaciones que no dan tanto miedo como las falsificaciones profundas con las que estamos más familiarizados. Inevitablemente complicará la forma en que lo regulamos.

Open Sourced es posible gracias a la Red Omidyar. Todo el contenido de código abierto es editorialmente independiente y es producido por nuestros periodistas.


Apoye el periodismo explicativo de Vox

Todos los días en Vox, queremos responder a sus preguntas más importantes y brindarle a usted y a nuestra audiencia en todo el mundo información que tiene el poder de salvar vidas. Nuestra misión nunca ha sido tan importante como lo es ahora: fortalecerla a través de la comprensión. El trabajo de Vox llega a más personas que nunca, pero nuestra marca distintiva de periodismo explicativo consume recursos, especialmente durante una pandemia y una recesión económica. Su contribución financiera no constituye una donación, pero permite que nuestros empleados continúen ofreciendo artículos, videos y podcasts gratuitos en la calidad y cantidad requerida para este momento. Por favor considere contribuir a Vox hoy.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *