Los defensores de los derechos humanos quieren usar AI para probar crímenes de guerra en la corte


La iniciativa, dirigida por la Universidad de Swansea en el Reino Unido junto con una serie de grupos de derechos humanos, es parte de un esfuerzo continuo para monitorear presuntos crímenes de guerra en Yemen y aumentar la responsabilidad legal. En 2017, la plataforma Yemeni Archive comenzó a crear una base de datos de videos y fotos que documentan los abusos. El contenido se recopiló de miles de fuentes, incluidas publicaciones de periodistas y civiles, y videos de código abierto de plataformas de redes sociales como YouTube y Facebook, y se almacenó en una cadena de bloques para que no se pudiera manipular sin ser detectado.

Junto con la Red Global de Acción Legal (GLAN), una organización sin fines de lucro que demandó a los estados por violaciones de derechos humanos, los investigadores comenzaron a recopilar pruebas de violaciones específicas de derechos humanos en una base de datos separada y a recopilar casos legales ante diferentes tribunales nacionales e internacionales. "Cuando las cosas pasan por procesos de rendición de cuentas en la corte, no es suficiente demostrar que esto ha sucedido", dijo Yvonne McDermott Rees, profesora de la Universidad de Swansea y líder de la iniciativa. "Tienes que decir:" Bueno, por eso es un crimen de guerra. "Esto podría ser:" Usaste un arma ilegal "o, en caso de un ataque aéreo," Estos civiles atacados "o" Eso fue "un ataque desproporcionado".

  Representación 3D de un BLU-63
Representación 3D de un BLU-63.

VFRAME

En este caso, los socios se centran en una munición de racimo fabricada en el Reino Unido, el BLU-63, y el uso y venta de municiones de racimo, armas explosivas que disparan explosivos más pequeños en el impacto, están en Prohibido en 108 países, incluido el Reino Unido, y si los socios pudieran demostrar a un tribunal del Reino Unido que realmente fueron utilizados para cometer crímenes de guerra, esto podría usarse como una palanca para detener las ventas de armas del Reino Unido a Arabia Saudita o cargos criminales contra individuos quienes participan en las ventas. [19659002] Por lo tanto, decidieron desarrollar un sistema de aprendizaje automático para cubrir todas las instancias del BLU-63 i reconocible en la base de datos. Sin embargo, las imágenes de BLU-63 son raras precisamente porque son ilegales, por lo que el equipo tiene pocos datos reales para entrenar su sistema. Como solución alternativa, el equipo creó un conjunto de datos sintéticos mediante la reconstrucción de modelos 3D del BLU-63 en una simulación.

Utilizando los pocos ejemplos anteriores que tenían, incluida una foto de la munición mantenida por los socios del Museo Imperial de la Guerra, trabajó con Adam Harvey, un investigador de visión por computadora, para crear las reconstrucciones. Partiendo de un modelo básico, Harvey agregó texturas fotorrealistas, diferentes tipos de daños y diferentes calcomanías. Luego presentó los resultados en diferentes condiciones de iluminación y entornos para crear cientos de imágenes fijas que imitaban cómo se podía encontrar la munición en la naturaleza. También creó datos sintéticos de cosas que podrían confundirse con municiones, como una pelota de béisbol verde, para reducir la tasa de falsos positivos.

Mientras Harvey todavía está generando ejemplos de capacitación adicionales, estima que necesitará más de 2,000; el sistema existente ya funciona bien: más del 90% de los videos y fotos que recupera de la base de datos fueron creados por expertos humanos. verificado para BLU-63. Ahora está creando un registro de validación más realista al imprimir y pintar modelos de municiones en 3D para que se vean como el original. Luego los grabó en video y los fotografió para ver qué tan bien funcionaba su sistema de detección. Una vez que el sistema esté completamente probado, el equipo planea llevarlo a través de todo el archivo yemení, que contiene 5.9 mil millones de imágenes de video. Harvey estimó que una persona necesitaría 2.750 días las 24 horas del día para analizar tanta información. Por el contrario, el sistema de aprendizaje automático tardaría unos 30 días en un escritorio normal.

  Munición BLU-63 dispersa sobre rocas.
La imagen real que se muestra en el análisis anterior en el artículo.

VFRAME

Los expertos humanos aún tendrían que revisar el metraje después de que el sistema lo filtró, pero la ganancia en eficiencia cambiará el juego para las organizaciones de derechos humanos que quieran desafiar en la corte. No es raro que estas organizaciones almacenen grandes cantidades de video de testigos oculares. Por ejemplo, Amnistía Internacional tiene 1 terabyte de imágenes que documentan posibles violaciones en Myanmar, dice McDermott Rees. Utilizando técnicas de aprendizaje automático, pueden buscar en estos archivos y demostrar el patrón de violaciones de derechos humanos sin precedentes, lo que dificulta mucho más que los tribunales rechacen la evidencia.

“Si nos fijamos, por ejemplo, el enfoque en los hospitales con un video que muestra que un hospital está siendo atacado es fuerte; Este es un caso ”, dice Jeff Deutch, investigador principal del Archivo Sirio, quien también lanzó el archivo yemení. “Sin embargo, si muestra cientos de videos de cientos de incidentes dirigidos a hospitales, puede ver que esta es realmente una estrategia de guerra consciente. Cuando las cosas se consideran intencionales, se hace posible identificar intenciones. Y la intención podría ser útil para casos legales relacionados con la responsabilidad del crimen de guerra. “

Mientras los empleados de Yemen se preparan para presentar su caso, la evidencia de esta magnitud será particularmente relevante. La coalición de ataque aéreo liderada por Arabia Saudita ya ha negado las acusaciones de crímenes de guerra anteriores, que el gobierno británico ha reconocido como un registro oficial. Los tribunales británicos también desestimaron un caso anterior presentado por GLAN para evitar que el gobierno venda armas a Arabia Saudita porque la evidencia en video de código abierto no se consideró lo suficientemente convincente. El personal espera que la mayor riqueza de evidencia conduzca a resultados diferentes esta vez. McDermott Rees dice que los casos de video de código abierto utilizados en un contexto sirio han llevado previamente a condenas.

Esta iniciativa no es la primera en utilizar el aprendizaje automático para filtrar evidencia en un contexto de derechos humanos. El sistema de lámpara electrónica de la Universidad Carnegie Mellon, una caja de herramientas de análisis de video para el trabajo de derechos humanos, fue desarrollado para analizar los archivos de la guerra siria. Harvey también trabajó anteriormente con algunos de sus empleados actuales para identificar las municiones utilizadas en Siria. Sin embargo, los esfuerzos en Yemen serán uno de los primeros en involucrarse en procedimientos legales. Podría ser un precedente para otras organizaciones de derechos humanos.

"Aunque este es un campo emergente, es una gran oportunidad", dijo Sam Gregory, director del programa del testigo de derechos humanos sin fines de lucro y presidente del grupo de trabajo de la Sociedad para la Influencia Social y Social de AI. "[It’s] también sobre la igualdad de la competencia por el acceso y el uso de la IA para convertir la evidencia de testigos oculares y las grabaciones de los perpetradores en justicia".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *