Los datos de entrenamiento destinados a hacer que la vigilancia policial predictiva sea menos sesgada sigue siendo racista


En su defensa, muchos desarrolladores de herramientas de vigilancia predictiva dicen que usan los informes de víctimas para obtener una imagen más precisa de las tasas de criminalidad en diferentes vecindarios. En teoría, los informes de las víctimas deberían ser menos sesgados, ya que no se ven afectados por los prejuicios o los circuitos de retroalimentación policial.

Sin embargo, Nil-Jana Akpinar y Alexandra Chouldechova de la Universidad Carnegie Mellon muestran que el punto de vista de los informes de las víctimas también está sesgado. La pareja creó su propio algoritmo de predicción utilizando el mismo modelo que se encuentra en varias herramientas populares, incluido PredPol, el sistema más utilizado en los EE. UU. Capacitaron al modelo de datos de denuncia de víctimas para Bogotá, Colombia, una de las pocas ciudades para las que se dispone de datos independientes de denuncia de delitos a nivel de distrito.

Cuando compararon las predicciones de su herramienta con los datos reales de delitos para cada distrito, descubrieron que cometía errores importantes. Por ejemplo, en un distrito donde se informaron pocos delitos, la herramienta predijo alrededor del 20% de los puntos problemáticos reales, lugares con una alta tasa de delitos. Por otro lado, en un distrito con una gran cantidad de informes, la herramienta predijo un 20% más de puntos críticos de los que realmente había.

Para Rashida Richardson, abogada e investigadora que estudia los sesgos algorítmicos en el AI Now Institute de Nueva York, estos hallazgos refuerzan el trabajo existente que destaca los problemas con los conjuntos de datos utilizados en la vigilancia policial predictiva. «Producen resultados sesgados que no mejoran la seguridad pública», dice. «Creo que muchos proveedores de vigilancia policial predictiva como PredPol generalmente no logran comprender cómo las condiciones estructurales y sociales afectan o distorsionan muchas formas de datos sobre delitos».

¿Por qué el algoritmo se equivocó tanto? El problema con los informes de víctimas es que los negros tienen más probabilidades que los blancos de ser denunciados por un delito. Los blancos más ricos tienen más probabilidades de reportar negros más pobres que al revés. Y es más probable que los negros denuncien a otros negros. Al igual que con las fechas de arresto, esto hace que los vecindarios negros sean marcados como puntos conflictivos con más frecuencia de lo que deberían.

Otros factores también distorsionan la imagen. «La denuncia de víctimas también está relacionada con la confianza o desconfianza de la comunidad en la policía», dice Richardson. «Entonces, si te encuentras en una comunidad con una agencia policial históricamente corrupta o notoriamente con prejuicios raciales, esto tiene un impacto en cómo y si las personas denuncian los delitos». En este caso, una herramienta de pronóstico podría subestimar el nivel de delincuencia en un área y no conseguir el trabajo policial que necesita.

No es una solución rápida

Peor aún, todavía no existe una solución técnica obvia. Akpinar y Chouldechova intentaron ajustar su modelo de Bogotá para tener en cuenta los sesgos que observaron, pero no tenían datos suficientes para marcar una gran diferencia, aunque hay más datos a nivel de distrito para Bogotá que para cualquier ciudad de EE. UU. «En última instancia, no está claro si mitigar el sesgo en este caso es más fácil que los esfuerzos anteriores basados ​​en detener los sistemas basados ​​en datos», dice Akpinar.

Qué se puede hacer Richardson cree que la presión pública para desmantelar las herramientas racistas y las políticas detrás de ellas es la única respuesta. «Es sólo una cuestión de voluntad política», dice. Ella señala que los primeros en adoptar herramientas de vigilancia predictiva como Santa Cruz anunciaron que ya no las usarían y que ha habido informes oficiales mordaces sobre el uso de vigilancia policial predictiva por parte del LAPD y el Departamento de Policía de Chicago. «Pero las reacciones en cada ciudad fueron diferentes», dice.

Chicago ha dejado de utilizar la vigilancia predictiva, pero la ha reinvertido en una base de datos para bandas policiales, que según Richardson tiene muchos de los mismos problemas.

«Es preocupante que incluso si las investigaciones y los informes del gobierno encuentran problemas importantes con estas tecnologías, no es suficiente que los políticos y los agentes del orden digan que no deben utilizarse», dice.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *