IA sesgada perpetúa la injusticia racial – TechCrunch


El asesinato de George Floyd fue impactante, pero sabemos que su muerte no fue única. Debido al racismo histórico, se han robado demasiadas vidas negras de sus familias y comunidades. Hay profundos y numerosos hilos en la injusticia racial que plagan a nuestro país y que llegan a un punto crítico después de los recientes asesinatos de George Floyd, Ahmaud Arbery y Breonna Taylor.

Tan importante como el proceso de admitir y comprender esto. El origen de la discriminación racial será nuestra determinación colectiva de encontrar un camino a seguir más justo e inclusivo. Si bien nos comprometemos a abordar esta realidad intolerable e insostenible, nuestras discusiones deben incluir el papel de la inteligencia artificial (IA) . Si bien el racismo ha impregnado nuestra historia, la IA ahora juega un papel en la creación, agravación y ocultación de estas diferencias detrás de la fachada de una máquina científica aparentemente neutral. De hecho, la IA es un espejo que refleja y refuerza los prejuicios en nuestra sociedad.

Tuve el privilegio de trabajar con la fiscal general adjunta Sally Yates para introducir prejuicios implícitos contra la policía federal en el Departamento de Justicia que me pareció tan instructivo para quienes trabajan en el plan de estudios como para los participantes. El sesgo implícito es un hecho de la humanidad que facilita nuestras actividades (por ejemplo, saber que es seguro cruzar la calle) y obstaculiza (por ejemplo, falsas impresiones iniciales debido a la raza o el género). Este fenómeno ahora está sucediendo a gran escala con la IA.

Como hemos aprendido, los esfuerzos de aplicación de la ley, como la policía preventiva, se han dirigido a las comunidades de color con demasiada frecuencia, lo que resulta en un número desproporcionado de arrestos de personas de color. Estos arrestos se registran en el sistema y en puntos de datos que se combinan en grandes cantidades de datos y se han utilizado en los últimos años para crear sistemas de inteligencia artificial. Este proceso crea un ciclo de retroalimentación en el que los algoritmos de vigilancia predictiva llevan a la policía a patrullar y, por lo tanto, solo monitorean el crimen en los vecindarios que patrullan, lo que influye en los datos y, por lo tanto, en futuras recomendaciones. Del mismo modo, los arrestos durante las protestas actuales conducirán a puntos de datos en conjuntos de datos futuros que se utilizarán para construir sistemas de inteligencia artificial.

Este ciclo de retroalimentación de sesgo dentro de la IA se lleva a cabo en todo el sistema de justicia penal y en nuestra sociedad en su conjunto, determinando cuánto tiempo debe ser condenado un sospechoso, si se debe aprobar una solicitud de préstamo hipotecario o si se debe programar una entrevista con un solicitante debería. En resumen, muchos programas de inteligencia artificial construyen y difunden decisiones que determinan la seguridad financiera y las oportunidades financieras de un individuo y su familia o su falta – a menudo sin que el usuario sepa qué papel desempeña para mantenerlo quien juega prejuicio. [19659003] Este círculo peligroso e injusto no creó todas las diferencias raciales bajo protesta, sino que las reforzó y normalizó bajo la cubierta protegida de una caja negra.

Todo esto sucede en el contexto de una pandemia histórica, que afecta desproporcionadamente a las personas de color. Las comunidades de color no solo tenían el mayor riesgo de contraer COVID-19, sino que también tenían más probabilidades de perder empleos y seguridad económica en un momento en que las tasas de desempleo se disparaban. La IA sesgada aumenta aún más la discriminación en esta área.

Este problema tiene soluciones: variedad de ideas y experiencias en la creación de IA. A pesar de años de promesas de aumentar la diversidad, particularmente en términos de género y raza, de técnicos que parecen capaces de resolver otros problemas irresolubles (desde poner computadoras en nuestros bolsillos hasta conectarnos a máquinas fuera del mundo para para controlar nuestros movimientos a través del GPS): informes recientes muestran que el porcentaje de personas técnicas que son negras o latinas en Google y Microsoft ha aumentado en menos de un punto porcentual desde 2014. El porcentaje de trabajadores tecnológicos negros en Apple no ha cambiado del 6%, que al menos se informa, a diferencia de Amazon, que no informa datos demográficos sobre los trabajadores técnicos.

Mientras tanto, la ética debería ser parte de la capacitación y el empleo relacionados con TI en el campo técnico. Los equipos de inteligencia artificial deben estar capacitados en leyes contra la discriminación y prejuicios implícitos, haciendo hincapié en que si esto no se entiende, tendrá un impacto negativo en las clases protegidas y el impacto humano real. Las empresas necesitan mejorar para incorporar diferentes perspectivas en la creación de su IA, y el gobierno debe ser un socio que establezca expectativas y pautas claras.

Se han implementado proyectos de ley para garantizar el control y la responsabilidad de los datos sesgados y la FTC. Recientemente, se han emitido pautas reflexivas que responsabilizan a las empresas de comprender los datos subyacentes de la inteligencia artificial y sus implicaciones, y hacerlos transparentes y transparentes para los consumidores entregar resultados explicables Dado el papel fundamental que desempeña el apoyo federal y nuestro uso acelerado de la inteligencia artificial, una de las soluciones clave es exigir a los receptores de ayuda federal que utilicen la inteligencia artificial que garanticen el cumplimiento de las leyes aplicables son ​​tecnologías tecnológicas críticas Fines Este esfuerzo ha sido realizado recientemente por varios miembros del Congreso para proteger a las personas y clases protegidas, y debe ponerse en práctica.

Todos tenemos que hacer nuestra parte para poner fin a los ciclos de prejuicios y discriminación. Se lo debemos a aquellos cuyas vidas han sido tomadas o cambiadas debido al racismo para mirar dentro de nosotros mismos, nuestras comunidades y nuestras organizaciones para garantizar el cambio. A medida que dependemos cada vez más de la inteligencia artificial, debemos estar atentos para garantizar que estos programas ayuden a resolver los problemas de injusticia racial en lugar de continuar y expandirlos.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *