Revisión de derechos civiles de Facebook: Zuckerberg todavía está luchando con el discurso de odio


Facebook falló en derechos civiles.

El miércoles, después de dos años de trabajo, el gigante de las redes sociales finalmente publicó los resultados de su revisión independiente, un informe exhaustivo sobre el estado de los derechos civiles en Facebook, desde el discurso de odio hasta la publicidad y los prejuicios algorítmicos. Los auditores descubrieron que la compañía simplemente no estaba haciendo lo suficiente para combatir el odio y el abuso en su plataforma.

Después de dos actualizaciones anteriores en diciembre de 2018 y junio de 2019, la revisión concluye que la respuesta de la compañía a los problemas de derechos civiles es "demasiado reactiva y fragmentaria" y, en última instancia, plantea dudas sobre si Facebook está realmente decidido a abordar su gran cantidad de problemas. Acercarse.

Esto es particularmente preocupante ya que las elecciones de noviembre de 2020 están a solo unos meses de distancia.

La ex directora de la ACLU, Laura W. Murphy, quien dirigió el informe con la abogada de derechos civiles Megan Cacace, comparó el trabajo de Facebook con escalar el Monte Everest. Señaló que, aunque la compañía de medios sociales había hecho algunos progresos, Facebook aún no había invertido suficientes recursos o respondido lo suficientemente rápido como para enfrentar sus numerosos desafíos de derechos civiles, y "preguntas legítimas sobre el compromiso total de Facebook por llegar a la cumbre ".

El juicio, que fue comisionado por líderes de derechos civiles y políticos de Facebook, se lleva a cabo en medio de un boicot publicitario cada vez mayor de la plataforma Stop Hate for Profit, dirigida por grupos de derechos civiles como la NAACP, la Liga Anti-Difamación y Color of Change ninguno de los cuales parece tener planes para detener su campaña. Mientras tanto, más de 1,000 compañías se han registrado, aunque el CEO Mark Zuckerberg ha rechazado sus efectos.

Para estos líderes de boicot que han intentado durante mucho tiempo trabajar con Facebook, los resultados de la auditoría corroboran mucho de lo que dijeron antes sobre la compañía: no se trata de discursos de odio, prejuicios, polarización y diversidad lo suficientemente serios.

"Liberarse de la plataforma del odio y la información errónea contra los negros solo se convirtió en una prioridad cuando se soportó una crisis de relaciones públicas", dijo Rashad Robinson, presidente de Color of Change, quien dijo que el Congreso dijo que uno Los derechos sobre la plataforma cada vez más competitiva podrían desempeñar un papel en la protección de los civiles.

El informe es importante para la reputación de Facebook, pero no vinculante. Facebook puede elegir implementar o rechazar las recomendaciones en el informe, algo que algunos defensores como Robinson temen. En una publicación de blog que anunciaba la publicación del informe el miércoles, Sheryl Sandberg, directora de operaciones de Facebook, dijo que la compañía "no hará todos los cambios que requiere [auditors]" sino "más sugerencias en la práctica". implementará ". [19659010] Independientemente de lo que haga la compañía en última instancia, el examen sirve como una prueba exhaustiva de la lucha de larga data de Facebook para conciliar sus valores declarados de libertad de expresión con el historial de daños causados ​​por el vitriolo incontrolado y la discriminación en su plataforma. fueron causados. En vista de este tema general, encontrará cinco hallazgos importantes en Facebook y los derechos civiles del informe de 89 páginas.

1) Cumplir con Trump en un estándar diferente es un precedente preocupante.

Facebook no ha castigado a Trump por violar las pautas de su comunidad, dicen los revisores de la plataforma. El informe destaca específicamente un grupo de publicaciones de Trump que hicieron afirmaciones engañosas sobre los votos y la infame publicación del presidente sobre "saquear … disparos" sobre manifestantes. Siguiendo las preocupaciones anteriores de los grupos de derechos civiles, los revisores dicen que estas publicaciones violan claramente las pautas de la comunidad de Facebook y que no eliminarlas es un precedente para Trump y otros políticos.

Los referéndums de Trump, mencionados en el informe, contienen afirmaciones falsas sobre las papeletas electorales postales en California, Michigan y Nevada. Facebook finalmente decidió que estas publicaciones no violaban sus pautas, y en el caso de Michigan y Nevada, argumentó que el lenguaje en las publicaciones solo "cuestionaba la legalidad de los funcionarios". Los auditores afirman que "expresaron con vehemencia su opinión" de que los organismos violaron las directrices, pero "solo se les dio la oportunidad de hablar directamente con los responsables de la toma de decisiones después de la decisión final".

Las decisiones de Facebook son "un gran revés para todas las políticas que intentan prohibir la represión de los votantes en Facebook".

La contribución de Trump "Saqueando … Disparando" representa un patrón similar de inacción fundada por uno mismo. En esta publicación, el presidente parecía amenazar con violencia contra los manifestantes de Black Lives Matter usando un lenguaje que correspondía a los segregacionistas blancos de la era de los derechos civiles. Aunque los gerentes de Facebook llamaron a la Casa Blanca y le pidieron a Trump que cambiara o borrara la publicación, la compañía finalmente no hizo nada al respecto. Por el contrario, Twitter ha decidido marcar una publicación idéntica del presidente Trump en su plataforma como una violación de sus reglas para glorificar la violencia.

Facebook defendió su decisión argumentando que las amenazas a las medidas gubernamentales están permitidas en la plataforma. Los auditores dicen que la lógica ha ignorado "cómo tales declaraciones, especialmente cuando son hechas por aquellos en el poder y dirigidas a una comunidad minoritaria identificable, toleran la vigilancia y legitiman la violencia contra esa comunidad". Agregaron: "Los disparos accidentales no son legítimos uso del poder por parte del estado ". Aquí, también, los examinadores dicen que no estuvieron involucrados en el proceso de toma de decisiones a su debido tiempo. La decisión de Facebook de" saquear … disparar ", que Mark Zuckerberg defendió más tarde cuando llamó a los empleados, generó críticas de los ejecutivos de la compañía y una huelga virtual por parte de los empleados. Fue uno de los incidentes que inspiró el boicot de Stop Hate for Profit.

En junio, Facebook anunció que marcaría publicaciones que violaron, pero no tuvieron en cuenta, las directrices de la comunidad. porque están clasificados como actuales (y si su valor para el público el interés eclipsa el daño que causan), pero eso no parece suceder muy a menudo. La revisión encontró que el año pasado la compañía usó la excepción solo para políticos 15 veces y solo una vez en los Estados Unidos, y no estaba claro de inmediato cuáles eran los casos.

Mientras tanto, la compañía no ha tomado ninguna medida contra las publicaciones anteriores de Trump, y los auditores concluyeron que para muchos activistas de derechos civiles, "el daño ya está hecho". Incluso si Facebook tiene políticas para apoyar los derechos civiles, los auditores han descubierto que negarse a imponerla contra Trump ha socavado la confianza en la empresa y ha dejado espacio para que otros políticos sigan los pasos de Trump.

2) Evaluar la libertad de expresión sobre todo crea problemas.

Si bien el liderazgo de Facebook ha enfatizado repetidamente el compromiso de la compañía con la libertad de expresión, los auditores encontraron que esto implicaba costos. Facebook decide sistemáticamente dar prioridad al discurso de los políticos sobre la retórica dañina y odiosa, que daña a sus usuarios en general. En el informe, los auditores citaron el discurso de Mark Zuckerberg en Georgetown en 2019 varias veces como un "punto de inflexión" en el que Facebook duplicó su compromiso con la libertad de expresión como el "principio rector de la plataforma".

La decisión de Facebook de no verificar los hechos políticos de los políticos, y permitirles que a veces violen las propias reglas de Facebook contra la publicación de contenido dañino porque lo que los políticos dicen que es inherentemente actualizado, plantea otro problema Ambos pasos han impactado significativamente los esfuerzos de derechos civiles de la compañía, dijeron los contadores. Era una forma de libertad de expresión para permitir a los políticos difundir información errónea sobre los votos que Mark Zuckerberg argumentó en su discurso en Georgetown, y en particular socava el compromiso de Facebook con sus propios valores. Los auditores dijeron que la priorización de Facebook de la libertad de expresión sobre otros valores como la no discriminación y la igualdad era "profundamente preocupante".

Al hacer excepciones al contenido de los políticos, se crea una "jerarquía de lenguaje que crea ciertas voces de privilegios sobre las voces menos poderosas. "

El informe reconoce, sin embargo, que Facebook no aborda la tensión entre su compromiso de derechos civiles y su compromiso monolítico con la libertad de expresión. En cambio, la compañía debería trabajar para desarrollar una comprensión más amplia de la libertad de expresión que tenga en cuenta cómo los usuarios típicos realmente experimentan la plataforma.

"Para una compañía estadounidense del siglo XXI y para Facebook, una compañía de redes sociales que tiene tanto impacto en nuestra vida cotidiana, la falta de claridad sobre la relación entre estos dos valores es devastadora", dijo el gerente La examinadora Laura W. Murphy escribió en la introducción del informe. "Se requerirá un equilibrio difícil, pero este equilibrio de derechos e intereses ha sido parte del diálogo estadounidense desde su inicio, y no hay ninguna razón por la cual Facebook no pueda armonizar estos valores si realmente lo desea".

3) El discurso de odio sigue siendo un problema para Facebook y no sabemos cuán malo es realmente.

Facebook ha luchado durante mucho tiempo con discursos de odio y violencia en su plataforma, incluidos los nacionalistas blancos que transmiten programas de entrevistas en Facebook Watch y miembros del "Movimiento Boogaloo", que promueve la ideología antigubernamental y las recientes protestas contra la justicia racial Ha instigado la violencia.

La ​​revisión de Facebook muestra que la compañía todavía tiene un largo camino por recorrer en la lucha contra el discurso de odio, particularmente en el área del nacionalismo blanco. A pesar de las mejoras, Facebook ha progresado un poco: se dice que ha mejorado la identificación del discurso de odio, y ahora cuenta con un equipo de 350 empleados que trabajan exclusivamente en la lucha contra grupos peligrosos en Facebook. Sin embargo, los revisores dicen que el contenido odioso a menudo permanece en la plataforma más tiempo del que debería o no debería eliminarse en absoluto. Según la prueba, este es un problema "particularmente agudo" con contenido dirigido a afroamericanos, judíos y musulmanes.

Por ejemplo, los auditores le pidieron a Facebook que prohibiera cualquier contenido que promueva la ideología de los nacionalistas o separatistas blancos, lo cual Facebook aún no ha hecho. La compañía ha prohibido explícitamente términos como "nacionalismo blanco" o "separatismo blanco", pero este enfoque simplificado continúa permitiendo que el contenido racista continúe extendiéndose en la plataforma, dijeron los auditores.

La revisión también criticó a Facebook por no dejar de lado los eventos de odio lo suficientemente rápido. El informe destaca que Facebook tardó más de 24 horas en eliminar un evento que debería intimidar físicamente a los asistentes a la reunión anual de la Sociedad Islámica de América del Norte en Houston, Texas. Facebook ha reconocido su paso en falso en el incidente, pero los auditores instaron a la compañía a revisar fundamentalmente su proceso de revisión para acelerar la eliminación de tales eventos. La moderación adecuada de los eventos, según el informe, es crucial durante las protestas actuales en todo el país para garantizar que las personas no puedan usar Facebook para organizar llamadas de armas, herir o intimidar a ciertos grupos.

Una cosa que complica el problema del discurso de odio de Facebook es el hecho de que no hay suficientes datos duros para saber qué tan malo es o cómo afecta a diferentes grupos. El informe decía: "La falta de datos para el análisis y el estudio parece estar socavando los esfuerzos para documentar y definir el problema, identificar su causa e investigar posibles remedios".

El discurso de odio se centró, también tocó un tema relacionado y aún más complejo que Facebook ha estado buscando durante años: si su plataforma polariza políticamente a sus usuarios o no y cómo esto podría estar relacionado con el discurso de odio se está extendiendo en Facebook. En un informe reciente del Wall Street Journal, se descubrió que el liderazgo de Facebook ha detenido los esfuerzos para reducir la división del sitio web a través de investigaciones internas sobre el cese de la polarización a través de las redes sociales. Facebook y Zuckerberg en particular han rechazado estas afirmaciones y criticado los informes de la revista.

Zuckerberg disputó con vehemencia la idea de que Facebook polarizó a sus usuarios, argumentando que la plataforma reúne ampliamente a las personas. Los revisores cuestionaron esta conclusión, diciendo que "no creen que Facebook esté suficientemente alineado con la profunda preocupación por la polarización y la forma en que los algoritmos utilizados por Facebook disparan accidentalmente contenido extremo y polarizante" .

Bajo la presión pública después de las elecciones de 2016, Facebook ha ajustado el algoritmo de su fuente de noticias para que las contribuciones de amigos y familiares se anuncien a través de artículos de noticias. Sin embargo, los auditores creen que esta no era una medida adecuada y que "Facebook debería hacer todo lo que esté en su poder para evitar que sus herramientas y algoritmos lleven a las personas a cámaras de extremismo auto-reforzantes, y la compañía no lo hace". reconocer puede tener consecuencias peligrosas (y potencialmente mortales) para el mundo real. "

Facebook puede hacer esto, dicen los auditores, no solo eliminando contenido odioso, sino también redirigiendo a los usuarios" lejos de organizaciones extremistas (y no hacia organizaciones extremistas ") en las recomendaciones que hizo.

4) Covid-19 demostró que Facebook puede monitorear eficazmente el contenido malicioso cuando lo desee.

La pandemia de Covid-19 ha aumentado el compromiso de la compañía para tratar con contenido malicioso. En respuesta a la pandemia, Facebook comenzó a eliminar agresivamente la información errónea relacionada con Covid-19 y eliminó cientos de miles de publicaciones falsas, que según Facebook determinó que podrían causar daños físicos inmediatos.

Este nuevo enfoque está en marcado contraste con la forma en que la compañía combate otros tipos de información errónea a los que Facebook no ha respondido en el pasado. El informe dice: "Facebook no está preocupado por restringir el discurso del defensor antivacunas o restringir la información errónea sobre COVID-19. Sin embargo, cuando se trataba de votar, Facebook era demasiado reacio a establecer reglas estrictas para limitar la desinformación y la represión de los votantes. "

Moderar el contenido relacionado con la pandemia también se está volviendo más complicado para la plataforma: como Peter Kafka de Recode explicó a fines de mayo, la discusión sobre Covid-19 ha evolucionado de un problema de salud pública a una compañía política enojada y partidista Debate que incluye derechos de voto, planes para reabrir el estado y la política de usar (o no usar) máscaras. El informe encontró que la mayoría del contenido de 100,000 eliminado entre marzo y mayo por violar las pautas de inferencia de votantes estaba relacionado con Covid-19.

5) La persona que contrata a Facebook como un nuevo oficial de derechos civiles necesita una verdadera autoridad para tomar decisiones.

Durante años, los activistas de derechos civiles han estado presionando a Facebook para que cree un rol que garantice que la compañía piense si sus productos y políticas tratan a las personas de manera justa. Con el lanzamiento de este informe, Facebook anunció que creará un vicepresidente senior para el liderazgo en derechos civiles. Sin embargo, los auditores dicen que esto no es suficiente. Quieren que Facebook cree una "infraestructura de derechos civiles".

La revisión recomienda que el nuevo Vicepresidente de Derechos Civiles lidere un equipo en lugar de trabajar en un puesto por cuenta propia. Debe tener una voz obligatoria en las "decisiones que afectan a los derechos civiles" importantes, p. B. si un político debería eliminar los puestos controvertidos o no. Los auditores dijeron explícitamente que el nuevo Vicepresidente de Derechos Civiles "debe estar en la sala" (es decir, en diálogo directo con los tomadores de decisiones) cuando se toman las decisiones y hay discusiones directas con la administración. "

Menos de 10 personas, según una transcripción de una reunión general interna de Facebook que Recode informó en junio, acusó a la controvertida decisión final de Zuckerberg de no cancelar la publicación de Trump, que se trataba de" disparar "protestas . De las personas que Zuckerberg citó en la reunión, solo una era negra y ninguna tenía roles dedicados exclusivamente a los derechos civiles.

En una declaración a Recode, Rashad Robertson, presidente de Color of Change, dijo que la posición recién anunciada era "un paso importante", pero agregó que "su oficina necesita estar equipada con todos los recursos para ser efectiva". . [19659045] "Sin esto, no hay razón para creer que Facebook priorizará la protección de los derechos civiles en el futuro", dijo Robertson. "Solo podemos confiar en Zuckerberg para pensar en la libertad de expresión y darles a los políticos un pasaporte gratuito para mentir, sembrar discordia y vivir del odio y el caos político".

¿Qué pasa después?

Para los activistas de derechos civiles que han estado esperando los resultados de este informe durante dos años, la gran pregunta es qué sigue. ¿Adoptará Facebook los muchos cambios en esta auditoría que dice que está "considerando" o "pilotando"?

Sheryl Sandberg, COO de Facebook, lo llamó el "comienzo del viaje, no" el final "para el manejo de Facebook del discurso de odio y temas relacionados en su publicación de blog, que anunció la publicación de la auditoría el miércoles . Sin embargo, algunas organizaciones de derechos civiles están perdiendo la paciencia y, según la revisión, algunas están considerando dejar de trabajar con Facebook por completo. Esta es una señal alarmante considerando lo cortas que son las elecciones de noviembre.

"Estoy buscando no solo las recomendaciones de la auditoría, sino también las medidas que tomará Facebook contra ella", dijo Jessica Gonzáles, presidenta de la organización de derechos civiles Free Press, que fue una de las organizaciones que lideró un boicot publicitario en Facebook. Recodificar

Los anunciantes continúan registrándose con el boicot Alone 125 nuevos se inscribieron esta semana, dijo Gonzáles a Recode el miércoles. Es probable que el Congreso también informe a Facebook sobre estos temas en una próxima audiencia del Congreso sobre temas antimonopolio en julio, en la que Zuckerberg y otros gerentes tecnológicos importantes testificarán.

"Sé que no podemos chasquear los dedos y transformar una red social en un día, pero [Facebook has] fue demasiado lento en ese sentido", dijo Gonzáles. "Las acciones no dicen lo correcto".


Apoye el periodismo explicativo de Vox

Todos los días en Vox, queremos responder a sus preguntas clave y proporcionarle a usted y a nuestra audiencia en todo el mundo información que incluya la siguiente información Poder para salvar vidas. Nuestra misión nunca ha sido tan importante como lo es ahora: fortalecerla a través de la comprensión. El trabajo de Vox llega a más personas que nunca antes, pero nuestra marca distintiva de periodismo explicativo consume recursos, especialmente durante una pandemia y una recesión económica. Su contribución financiera no constituye una donación, pero permite que nuestros empleados continúen ofreciendo artículos, videos y podcasts gratuitos en la calidad y cantidad requerida para este momento. Por favor considere contribuir a Vox hoy.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *