Descifrar un trabajo de investigación de IA para predecir el crimen consiste en 1,000 firmas


La Coalition for Critical Technology (CCT) escribió una carta en contra de la publicación de los resultados de la investigación titulada "Un modelo de red neuronal profunda para predecir la delincuencia mediante el procesamiento de imágenes". En el momento de la publicación, la carta tiene más de 1,000 firmas de investigadores, profesionales, académicos y otros. Según un comunicado de prensa de la Universidad de Harrisburg, Springer Publishing publicará el documento en una serie de libros, y la carta insta a los lectores a solicitar que Springer retire el documento y condene el uso de estadísticas de justicia penal para predecir el delito.

El uso de algoritmos en la vigilancia predictiva es un tema difícil. Como se indica en la carta de CCT, los datos de justicia penal son notoriamente incorrectos. "Innumerables estudios han demostrado que las personas negras reciben un trato más duro que las personas blancas en todas las etapas del sistema legal, lo que resulta en graves distorsiones de datos", dice la carta. Jonathan Korn, investigador principal en el periódico de la Universidad de Harrisburg, es un ex oficial de policía de Nueva York.

Según el comunicado de prensa de la Universidad de Harrisburg, el documento promete: “Con una precisión del 80% y sin prejuicios raciales, el software puede predecir si alguien es un criminal basándose únicamente en una imagen de su rostro. El software está diseñado para ayudar a las agencias policiales a prevenir el delito. “

La idea de determinar el crimen en función de la cara de una persona es fundamentalmente racista y tiene profundas raíces en la pseudociencia histórica. El uso de la tecnología de reconocimiento facial es solo una forma moderna de responder a la misma pregunta errónea. La carta del CCT comienza con la condena de la idea de la pregunta del investigador: "Tales afirmaciones se basan en premisas científicas, investigaciones y métodos sin fundamento que han expuesto muchos estudios a lo largo de los años que abarcan nuestras respectivas disciplinas". 19659005] VB Transform 2020 en línea: del 15 al 17 de julio. Únase a los principales líderes de IA: regístrese para la transmisión en vivo gratuita.

Esta no es la primera vez que aparece el artículo en cuestión. A principios de mayo, la Universidad de Harrisburg publicó el mismo comunicado de prensa para eliminarlo después de duras críticas. Motherboard retuvo una versión archivada de la publicación e informó que uno de los investigadores, Nathaniel J.S. Ashby dijo en un correo electrónico: "La publicación / tweet se ha eliminado hasta que tengamos tiempo de publicar un documento que detalle los resultados de la investigación que aborden las preocupaciones planteadas".

Sin embargo, no está claro qué ha cambiado desde mayo. El "nuevo" comunicado de prensa es idéntico al primero, y Ashby declinó responder a las preguntas de VentureBeat sobre cómo cambiaron el documento. VentureBeat le preguntó a Springer si cumpliría con los requisitos del CCT, pero el editor aún no había respondido. (Actualización el 23 de junio a las 12:09 p.m. Pacífico: aunque Springer no respondió a VentureBeat, la compañía en Twitter confirmó que no publicaría el artículo. La compañía no explicó sus planes a ninguno de ellos otras demandas del grupo.)

Un problema importante es la incapacidad de la tecnología para determinar cosas que están fundamentalmente construidas y definidas socialmente. "El aprendizaje automático no tiene un mecanismo incorporado para examinar o discutir los méritos sociales y políticos de sus resultados", decía la carta. Esto refleja al Dr. Ruha reflejó el testimonio de Benjamin de una conferencia a principios de este año en la que explicó que "la profundidad de la computadora sin profundidad histórica o sociológica es un aprendizaje superficial". La investigadora Abeba Birhane explora más esta idea en su galardonado artículo "Desigualdades algorítmicas: hacia una ética relacional".

La carta del CCT es una rica fuente de investigaciones previas sobre delincuencia, vigilancia policial predictiva, reconocimiento facial y cuestiones relacionadas.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *