Nick Clegg de Facebook defiende los algoritmos de la empresa contra los críticos


Logotipo de fuente abierta

Facebook quiere reintroducir a los usuarios a sus algoritmos.

El miércoles, la compañía tomó varias medidas en cuestión de horas para alentar a los usuarios a confiar en sus sistemas de clasificación y recomendación. En una publicación de blog, Facebook dijo que facilitaría a los usuarios tomar el control de lo que hay en sus feeds y señalar herramientas nuevas y existentes. En un intento manifiesto de respaldar este anuncio, Nick Clegg, vicepresidente de asuntos globales de Facebook, publicó una publicación en un medio de 5.000 palabras defendiendo los algoritmos de clasificación de la compañía y descartando el argumento de que estos algoritmos producían cámaras de eco peligrosas. Clegg también defendió los algoritmos de Facebook en una entrevista completa con Verge, publicada el mismo día.

En conjunto, estos pasos parecen una campaña concertada de Facebook para corregir la reputación negativa de sus algoritmos, que muchos dicen que promueven activamente la polarización política, la desinformación y el contenido extremo. El esfuerzo se debe a que la compañía ha sido fuertemente criticada por los legisladores por el diseño de su plataforma y solo una semana después de que el CEO Mark Zuckerberg testificara durante una audiencia de desinformación frente al Congreso.

En su reciente bombardeo de relaciones públicas, Facebook está impulsando la idea de que no es particularmente responsable de difundir la polarización y el contenido extremo en sus plataformas, y está tomando las medidas adecuadas para combatir ambos. Eso desafía a los críticos de toda la vida que han dicho que los algoritmos de Facebook están diseñados para recompensar el contenido más desagradable, una narrativa específica que Facebook y Clegg niegan activamente.

Vale la pena señalar que dos de las herramientas que Facebook lanzó el miércoles ya existían (Recode escribió sobre ambas el año pasado). Con «Favoritos», los usuarios pueden seleccionar hasta 30 fuentes para priorizarlas en su feed. «¿Por qué veo esto?» proporciona una explicación de por qué se mostró cierto contenido en su feed. En su anuncio del miércoles, Facebook dijo que también establecerá una herramienta de «Filtro de feeds» que permitirá a los usuarios cambiar entre un feed curado algorítmicamente, un feed basado en sus páginas «favoritas» y un feed cronológico inverso. En particular hay no hay forma de cambiar a la versión cronológica inversa de forma permanente. Facebook también dijo que dará a los usuarios cierto control sobre quién puede comentar en publicaciones individuales siguiendo los pasos de Twitter.

En su publicación de «Wednesday Medium», Clegg sostiene que las funciones de suministro de noticias recientemente anunciadas brindan a los usuarios opciones algorítmicas y transparencia, y que Facebook está tomando medidas para minimizar el cebo de clics y el contenido falso o dañino. Afirma que no está en el interés comercial de Facebook anunciar contenido extremo y dice que a los anunciantes, clave para el modelo comercial de Facebook, no les gusta este contenido. Clegg también le dijo a The Verge que no hay ninguna razón para que la compañía «dé a la gente el tipo de impulso de azúcar de contenido polarizador artificial» si Facebook quiere mantener a sus usuarios a largo plazo.

Pero los críticos de Facebook desde hace mucho tiempo no parecen comprar esos argumentos.

«El Medium-Post de Nick Clegg es una representación cínica e impresionante de luces de gas en una escala que es difícil de comprender incluso para Facebook», dijo a Recode un portavoz del Real Facebook Oversight Board, un grupo de académicos y activistas que critican a Facebook. Clegg pregunta: ‘¿Cuál es el atractivo de FB?’ Una mejor pregunta podría ser: ¿Cuál es el incentivo de Nick Clegg? La respuesta es clara «.

«Facebook ha logrado insultar a sus usuarios por ser demasiado estúpidos para entender cómo funcionan sus algoritmos y culparlos por explotarlos con demasiada eficacia», dijo Ashley Boyd, vicepresidente de asuntos legales de Mozilla, en un comunicado el miércoles. «Los controles de suministro de noticias introducidos hoy no son más que una admisión de que sus algoritmos son el problema».

A lo largo de los años, periodistas e investigadores han documentado repetidamente casos de desinformación, contenido extremista y discursos de odio promovidos en Facebook. Este año, por ejemplo, un hombre que se había convertido en informante del FBI por una conspiración para secuestrar al gobernador de Michigan supuestamente se encontró con el grupo debido a una sugerencia de Facebook. La lista de las publicaciones más comprometidas en Facebook suele estar encabezada por fuentes de extrema derecha, y los investigadores de la Universidad de Nueva York descubrieron que las cuentas que comparten información errónea tienden a ser más atractivas que otras fuentes. Mientras tanto, una investigación de la oficina del representante Tom Malinowski encontró que los sistemas de Facebook recomendaban grupos con nombres como «George Soros, el rey cucaracha» y «Me encanta ser blanco».

Kelley Cotter, becaria postdoctoral de la Universidad Estatal de Arizona, le dijo a Recode que el propósito de la publicación de Clegg parecía ser «generar aprobación para el capitalismo de vigilancia» y enfatizó que los algoritmos de participación son de hecho clave para el modelo de negocios de Facebook. «[Facebook is]En última instancia, una empresa pública que utiliza algoritmos y recopilación de datos para generar la mayor parte de sus ingresos ”, dijo en un correo electrónico.

Una captura de pantalla con grupos de Facebook sugeridos.

El año pasado. La oficina del representante Tom Malinowski realizó su propio experimento, centrándose en los sistemas de recomendación de Facebook, y descubrió que Facebook recomienda grupos antisemitas y racistas.
Oficina del diputado Tom Malinowski

Los últimos movimientos de Facebook se deben al aumento de entusiasmo por un mayor control sobre los algoritmos de las redes sociales. En las últimas semanas, al menos un miembro de la junta directiva de Facebook, un grupo de expertos y periodistas que la compañía ha designado para tomar decisiones difíciles sobre la moderación del contenido, ha expresado su interés en revisar los sistemas de clasificación y recomendación de la compañía. La semana pasada, los parlamentarios Anna Eshoo y Tom Malinowski reintrodujeron la Ley para proteger a los estadounidenses de algoritmos peligrosos, que enmendaría la Sección 230 y eliminaría la protección de responsabilidad de la plataforma en ciertos casos de derechos civiles o terrorismo.

Mientras tanto, Facebook parece inclinarse hacia Jack Dorsey, quien ha señalado repetidamente la idea de la selección algorítmica como un camino a seguir. La semana pasada, el CEO de Twitter dijo que Bluesky, una iniciativa de investigación relativamente nueva financiada por Twitter, está construyendo sistemas de recomendación «abiertos» que brindan a los usuarios de las redes sociales un mayor control (Twitter ya permite a los usuarios cambiar entre la cronología inversa y el compromiso a fuentes basadas en cambios ). Ahora Facebook se dirige en una dirección similar, y Clegg explica a The Verge que dar a los usuarios más control sobre sus feeds es «en gran medida la dirección en la que vamos».

En general, algunos dicen que la campaña de relaciones públicas de Facebook del miércoles no parecía estar vinculada a las crecientes preocupaciones sobre los algoritmos y los tipos de contenido que expanden y priorizan.

«Creo que lo principal que tenemos que preguntarnos es por qué Nick Clegg (Facebook, en realidad) se vio obligado a escribir este artículo de 5.000 palabras sobre por qué los algoritmos no son un problema». Cotter, del estado de Arizona, le dijo a Recode. «‘La señora protesta demasiado, piensa'».

Actualizar Miércoles 31 de marzo, 8:20 p.m. ET: Este artículo se ha actualizado para incluir una declaración del vicepresidente de defensa de Mozilla.

Fuente abierta es posible gracias a Omidyar Network. Todo el contenido de código abierto es editorialmente independiente y es producido por nuestros periodistas.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *