Los deepfakes del año se generalizaron


En 2018, Sam Cole, un reportero de Motherboard, descubrió un nuevo e inquietante rincón de Internet. Un usuario de Reddit llamado «Deepfakes» publicó videos porno falsos no consensuados utilizando un algoritmo de inteligencia artificial para convertir las caras de las celebridades en porno real. Cole alertó del fenómeno cuando la tecnología estaba a punto de explotar. Un año después, el porno deepfake se había extendido mucho más allá de Reddit, con aplicaciones de fácil acceso que cualquier mujer fotografiada podía usar para «desvestirse».

Desde entonces, los deepfakes han tenido una mala reputación, y con razón. La gran mayoría de ellos todavía se utilizan para pornografía falsa. Un periodista de investigación fue severamente acosado y silenciado temporalmente por tales actividades y, más recientemente, un poeta y escritor se sintió asustado y avergonzado. También existe el riesgo de que las falsificaciones políticas generen noticias falsas convincentes que puedan causar estragos en entornos políticos inestables.

Sin embargo, a medida que los algoritmos para manipular y sintetizar medios se han vuelto más poderosos, también han generado usos positivos, así como algunos que son humorísticos o mundanos. Aquí hay un resumen de algunos de nuestros favoritos en un orden cronológico aproximado y por qué creemos que son una señal de lo que está por venir.

Protección de denunciantes

Izquierda: una cuadrícula de fotos de Maxim desde muchos ángulos.  Derecha: una cuadrícula de fotos de su portada deepfake desde muchos ángulos.

MEDIOS TEUS

En junio, Bienvenidos a Chechyna, una película de investigación sobre la persecución de personas LGBTQ en la República de Rusia, fue el primer documental en utilizar deepfakes para proteger la identidad de sus sujetos. Los activistas que lucharon contra la persecución y actuaron como protagonistas de la historia vivieron escondidos para no ser torturados o asesinados. Después de que el director David France explorara muchos métodos para ocultar su identidad, decidió darles «cubiertas» en profundidad. Pidió a otros activistas LGBTQ de todo el mundo que dieran sus caras, que luego fueron injertadas en las caras de las personas en su película. La tecnología permitió a Francia preservar la integridad de las expresiones faciales de sus sujetos y, por lo tanto, su dolor, miedo y humanidad. En total, la película protegió a 23 personas y realizó un trabajo pionero para una nueva forma de protección de denunciantes.

Historia revisionista

Una pantalla dividida con el actor Lewis D. Wheeler a la izquierda y el deepfake Nixon a la derecha.

PANETTA Y BURDEOS

En julio, dos investigadores del MIT, Francesca Panetta y Halsey Burgundy, publicaron un proyecto para crear una historia alternativa del aterrizaje lunar del Apolo en 1969. Llamado En caso de un desastre lunarutiliza el discurso que habría pronunciado el presidente Richard Nixon si la trascendental oportunidad no hubiera salido según lo planeado. Los investigadores trabajaron con dos compañías diferentes de audio y video falsos profundos y contrataron a un actor para brindar el servicio «básico». Luego pasaron su voz y su rostro a través de los dos tipos de software y los unieron en un Nixon final deepfake.

Si bien este proyecto muestra cómo los deepfakes pueden crear poderosas historias alternativas, otro sugiere cómo los deepfakes pueden dar vida a la historia real. En febrero, la revista Time recreó la marcha de Martin Luther King Jr. en Washington para que la realidad virtual sumergiera a los espectadores en la escena. El proyecto no utilizó tecnología deepfake, pero el gigante tecnológico chino Tencent lo citó más tarde en un documento técnico sobre sus planes para la inteligencia artificial, diciendo que los deepfakes podrían usarse para propósitos similares en el futuro.

Memes

A finales del verano, Memersphere consiguió deepfakes fáciles de hacer y publicó los resultados en el universo digital. En particular, un meme viral llamado «Baka Mitai» (en la foto de arriba) aumentó rápidamente a medida que la gente aprendía a usar la tecnología para hacer sus propias versiones. El algoritmo específico que impulsa la locura proviene de un informe de investigación de 2019 que permitió a un usuario animar una foto del rostro de una persona con un video del rostro de otra persona. El efecto no es de alta calidad de ninguna manera, pero definitivamente crea diversión de calidad. El fenómeno no es del todo sorprendente; El juego y la parodia han sido una fuerza impulsora en la popularización de deepfakes y otras herramientas de manipulación de medios. Por este motivo, algunos expertos destacan la necesidad de barandillas para evitar que la sátira se convierta en abuso.

Publicidad deportiva

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *