La auditoría de derechos civiles de Facebook exige una detección de sesgo algorítmico "obligatorio"


En un informe exhaustivo que critica el progreso de Facebook hacia los derechos civiles, una revisión independiente descubrió que los esfuerzos de la compañía para detectar sesgos algorítmicos son peligrosamente cortos y hacen que los usuarios sean vulnerables a la manipulación.

Según una revisión independiente de las políticas y prácticas de la compañía publicada hoy, los esfuerzos de la compañía para identificar el sesgo del algoritmo permanecen principalmente en proyectos piloto realizados por un puñado de equipos. Los autores del informe, los abogados de derechos civiles Laura Murphy y Megan Cacace, señalan que la compañía depende cada vez más de la inteligencia artificial para realizar tareas como predecir en qué usuarios de anuncios se puede hacer clic y eliminar contenido malicioso.

Pero estas herramientas, como los otros esfuerzos preliminares de Facebook en áreas como la diversidad de sus equipos de inteligencia artificial, van mucho más lejos y más rápido dada la vulnerabilidad de su plataforma, según el informe. Si bien el grupo se ocupó claramente de Facebook durante su revisión de dos años, el llamado a intensificar los esfuerzos contra el sesgo algorítmico plantea un problema que es probable que aborde cualquier empresa relacionada con la inteligencia artificial.

"Facebook tiene la responsabilidad existente de garantizar que los algoritmos y modelos de aprendizaje automático que puedan tener un impacto significativo en miles de millones de personas no tengan consecuencias injustas o adversas", dijo el informe. “Los auditores creen que Facebook necesita abordar estos problemas con mayor urgencia.

VB Transform 2020 en línea – 15.-17. Julio. Únase a los principales líderes de IA: regístrese para la transmisión en vivo gratuita.

El momento del informe es desfavorable. Sucede al igual que Facebook es el objetivo de uno de los boicots más grandes a los que ha estado expuesto. La campaña Stop Hate for Profit ha persuadido a más de 300 anunciantes para que dejen de gastar en Facebook a menos que tomen medidas audaces para combatir el racismo, la misoginia y la desinformación en su red.

A principios de esta semana, el CEO de Facebook, Mark Zuckerberg, se reunió con grupos de derechos civiles, pero insistió en que no cederían a la presión financiera. Los participantes quedaron decepcionados con la respuesta.

El informe sigue poco después de esta reunión. En una publicación de blog, Sheryl Sandberg, directora de operaciones de Facebook, quería recopilar algunos puntos por ser la "primera compañía de medios sociales en realizar dicha auditoría". También asintió en el momento de un informe que se encargó hace dos años.

El título de la publicación debería, sin embargo, subrayar la opinión de Facebook de que está luchando la buena batalla: “Progreso en derechos civiles, pero aún queda un largo camino por recorrer. "

" No hay soluciones rápidas para estos problemas, y no debería haberlas ", escribió Sandberg. “Esta auditoría fue un análisis exhaustivo de cómo podemos fortalecer y promover los derechos civiles en todos los niveles de nuestra empresa, pero es el comienzo del viaje, no el final. Cada vez es más claro que todavía tenemos un largo camino por recorrer. Tan difícil como fue hacer que nuestros defectos fueran revelados por expertos, fue sin duda un proceso realmente importante para nuestra empresa. Queremos instar a las empresas de nuestra industria y más allá a hacer lo mismo. “

Aunque los autores destacaron muchos de los esfuerzos internos de Facebook, fueron menos educados.

"Muchos miembros de la comunidad de derechos civiles se han desanimado, frustrado y enojado después de años de compromiso pidiéndole a la compañía que haga más para promover la igualdad y luchar contra la discriminación al tiempo que garantiza la libertad de expresión", escribió los autores.

El informe analiza el trabajo de Facebook sobre responsabilidad de derechos civiles, elecciones y censo, moderación de contenido, diversidad y publicidad. Sin embargo, también se presta especial atención al tema de la distorsión algorítmica.

"La IA a menudo se presenta como objetiva, científica y precisa, pero en muchos casos no", dice el informe. "Los algoritmos son creados por personas que inevitablemente tienen prejuicios y suposiciones, y estos prejuicios se pueden incorporar a los algoritmos al decidir qué datos son importantes o cómo está estructurado el algoritmo, y al confiar en los datos que son prácticas pasadas, existentes o reflejar desigualdades históricas y suposiciones o estereotipos. Los algoritmos también pueden causar y exacerbar diferencias adversas innecesarias. Con la proliferación de algoritmos en nuestra sociedad, es cada vez más importante garantizar que sean justos, imparciales y no discriminatorios y que no solo aumenten los estereotipos o las diferencias existentes.

Los autores enfatizaron los esfuerzos de Facebook para la IA responsable (RAI). Esto está dirigido por un equipo de "especialistas en ética, ciencias sociales y políticas, expertos en políticas, investigadores e ingenieros de IA que se centran en comprender las preocupaciones de equidad e inclusión relacionadas con el uso de la IA en los productos de Facebook"

Parte de este trabajo de RAI incluye el desarrollo de herramientas y recursos que se pueden utilizar en toda la organización para garantizar la equidad de la IA. Hasta ahora, el grupo ha desarrollado un "enfoque de cuatro pasos para la equidad y la inclusión en la inteligencia artificial en Facebook".

  1. Cree políticas y herramientas para limitar la distorsión accidental.
  2. Desarrollar un proceso de consulta de equidad.
  3. Participe en discusiones sobre sesgos de AI con personal externo.
  4. Diversificar el equipo de IA.

Como parte del primer pilar, Facebook desarrolló la herramienta de flujo de equidad, que se puede utilizar para evaluar algoritmos mediante la identificación de problemas no intencionados con los datos subyacentes y el reconocimiento de predicciones incorrectas. Sin embargo, el flujo de equidad es relativamente nuevo y solo se encuentra en una fase piloto. El uso con los equipos que tienen acceso es voluntario.

A fines del año pasado, Facebook lanzó un piloto de consulta de equidad que los equipos pueden usar para identificar un problema de sesgo en un producto para llegar a otros equipos internamente que pueden tener más experiencia en retroalimentación y asesoramiento.

Si bien los autores acogieron con beneplácito estos pasos, también les pidieron que se expandieran por la empresa y que su uso fuera obligatorio.

"Los auditores creen firmemente que los procesos y la orientación para identificar problemas y resolver problemas de equidad deben ser obligatorios (no voluntarios) y de toda la compañía", dijo el informe. "Eso significa que todos los equipos que crean modelos deben seguir pautas integrales de mejores prácticas, y los algoritmos y modelos de aprendizaje automático existentes deben probarse regularmente. Esto incluye instrucciones para crear modelos, así como sistemas para probar modelos. “

La compañía también estableció un grupo de trabajo de IA para liderar iniciativas para mejorar su diversidad. Facebook está financiando un curso de aprendizaje profundo en Georgia Tech para expandir la cartera de candidatos diferentes. También está en conversaciones para trabajar con otras universidades para ampliar el programa. Y utiliza grupos sin fines de lucro, de investigación y de interés para expandir su grupo de reclutamiento.

Sin embargo, la revisión nuevamente encontró que el alcance de estas iniciativas es demasiado limitado. Pidió más esfuerzos de contratación y una mejor capacitación y educación en toda la compañía sobre estos temas.

"Si bien los contadores creen que es importante que Facebook tenga un equipo que aborde los problemas de imparcialidad y imparcialidad de la inteligencia artificial para garantizar que la equidad y la no discriminación también sean responsabilidad de todos los equipos" , dice el informe. "Para este fin, los revisores recomiendan que la capacitación centrada en comprender y mitigar las causas de sesgo y discriminación en la IA sea obligatoria y parte de todos los equipos que crean algoritmos y modelos de aprendizaje automático para Facebook del proceso de incorporación inicial de Facebook ".

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *