Cómo se utilizan los algoritmos y los datos para influir en usted


Logotipo de fuente abierta

Cuando le digo a la gente que escribo sobre privacidad, generalmente obtengo algo basado en estas dos respuestas:

«¿Facebook me está escuchando? Recibí un anuncio de comida para loros y la única explicación posible es que Facebook escuchó a mi amigo contarme sobre su nuevo loro porque mencionó exactamente esta marca de la que nunca había oído hablar antes. «

(No, Facebook no lo hace).

Aquí está el otro:

“Estoy seguro de que esto es importante para alguien, pero no tengo nada que ocultar. ¿Por qué debería preocuparme por la protección de datos? «

Se recopila una gran cantidad de datos personales y detallados sobre nosotros todos los días a través de nuestros teléfonos, computadoras, automóviles, hogares, televisores y parlantes inteligentes, todo lo que está básicamente conectado a Internet, así como cosas que no son tarjetas de crédito, e incluso esa información en su licencia de conducir. No tenemos mucho control sobre gran parte de esta recopilación de datos y, a menudo, no sabemos cuándo o cómo se utilizan. Eso incluye cómo se puede utilizar para influir en nosotros.

Quizás esto tome la forma de un anuncio para comprar comida para loros. También puede ser una recomendación para ver un video de YouTube sobre cómo los líderes mundiales globalistas y las estrellas de Hollywood manejan un anillo de pedófilos que solo el presidente Trump puede detener.

«Las plataformas de Internet como YouTube utilizan IA que proporciona recomendaciones personalizadas basadas en los miles de puntos de datos que recopilan sobre nosotros», dijo a Recode Brandi Geurkink, activista de la Fundación Mozilla que estudia el motor de recomendaciones de YouTube.

Estos puntos de datos incluyen su comportamiento hacia los otros productos de YouTube, la empresa matriz de Google, como B. Tus hábitos de navegación de Chrome. Y es su comportamiento en el propio YouTube: dónde se desplaza hacia abajo en una página, en qué videos hace clic, qué hay en esos videos, cuánto de ellos mira. Todo esto se registra y se usa para brindarle recomendaciones cada vez más personalizadas que se pueden servir a través de la reproducción automática (habilitada de manera predeterminada) antes de que pueda hacer clic.

Añadió: “Esta IA está optimizada para mantenerte en la plataforma para que sigas viendo anuncios y YouTube siga ganando dinero. No fue diseñado para optimizar su bienestar o «satisfacción» a pesar de las afirmaciones de YouTube. Como resultado, la investigación ha demostrado cómo este sistema puede proporcionar a las personas su propia experiencia privada y adictiva que puede llenarse fácilmente con teorías de conspiración, desinformación sobre salud y desinformación política. «

El daño real que esto puede causar se hizo bastante evidente el 6 de enero cuando cientos de personas irrumpieron en el Capitolio para intentar deshacer una confirmación electoral. No tenían motivos para creer que Trump había ganado. Este engaño masivo fue alimentado por sitios web que, según las investigaciones, promueven y refuerzan las teorías de la conspiración y la desinformación electoral.

«El refuerzo algorítmico y los sistemas de recomendación que utilizan las plataformas difunden contenido que recuerda lo que es verdad», dijo la eurodiputada Anna Eshoo (D-CA) en un comunicado reciente. “El terrible daño a nuestra democracia el 6 de enero demostró cómo estas plataformas de redes sociales ayudaron a radicalizar a los terroristas y animarlos a atacar nuestro Capitolio. Estas empresas estadounidenses necesitan repensar fundamentalmente los sistemas algorítmicos que contradicen la democracia. «

Durante años, Facebook, Twitter, YouTube y otras plataformas han proporcionado a sus usuarios contenido que sus algoritmos quieren decirles en función de los datos que tienen sobre sus usuarios. Los videos que miras, las publicaciones de Facebook y las personas con las que interactúas Tweets a los que respondes, Tu ubicación: esto te ayudará a crear un perfil tuyo que los algoritmos de estas plataformas usarán para proporcionar aún más videos, publicaciones y tweets con los que interactuar, canales a los que suscribirte, grupos a los que unirte y temas a seguir. No estás buscando este contenido; Te está buscando.

Esto es bueno para los usuarios cuando les ayuda a encontrar contenido inofensivo en el que ya están interesados ​​y para las plataformas, ya que esos usuarios pasarán más tiempo con él. No es bueno para los usuarios radicalizados por contenido malicioso, pero sigue siendo bueno para las plataformas, ya que estos usuarios pasan más tiempo con ellos. Es su modelo de negocio, ha sido muy rentable y no tienen ganas de cambiarlo, ni tampoco tienen que hacerlo.

«Las plataformas digitales no deberían ser foros para sembrar el caos y difundir información errónea», dijo a Recode la senadora Amy Klobuchar (D-MN), una crítica frecuente de Big Tech. “Los estudios han demostrado cómo los algoritmos de las redes sociales llevan a los usuarios a contenido polarizado y permiten a las empresas capitalizar la división. Si los datos personales se utilizan para promover la segregación, los consumidores tienen derecho a saber. «

Sin embargo, este derecho no es legal. No existe una ley federal de protección de datos, y las plataformas son notoriamente opacas sobre cómo funcionan sus algoritmos de recomendación, incluso cuando se han vuelto cada vez más transparentes sobre qué datos de los usuarios recopilan y les han dado a los usuarios cierto control sobre ellos. Sin embargo, estas empresas también han intentado detener el seguimiento si no se realiza en sus propios términos, o no han actuado en sus propias políticas que lo prohíben.

A lo largo de los años, los legisladores han presentado proyectos de ley que tratan con algoritmos de recomendación, ninguno de los cuales ha ido a ninguna parte. El representante Louis Gohmert (R-TX) intentó eliminar la protección de la Sección 230 de las empresas de medios sociales que usaban algoritmos para recomendar (o suprimir) contenido bajo su «Ley de disuasión de algoritmos de sesgo». Un grupo bipartidista de senadores desarrolló la Ley de transparencia de la burbuja del filtro, que obligaría a las plataformas a «permitir a los usuarios interactuar con una plataforma sin ser manipulados por algoritmos basados ​​en datos específicos del usuario». Mientras tanto, los parlamentarios Eshoo y Tom Malinowski (D-NJ) planean reintroducir su Ley para proteger a los estadounidenses de algoritmos peligrosos, que elimina la protección de la Sección 230 de las plataformas que refuerzan el contenido extremista o de odio.

Plataformas por su parte tener hizo esfuerzos para contener contenido extremista y desinformación. Sin embargo, esto solo sucedió después de años de estar en gran parte sin control, y beneficiarse de ello, y con resultados mixtos. Estas medidas también son reactivas y limitadas; No hacen nada para detener o contener la evolución de las teorías de la conspiración o las campañas de desinformación. Los algoritmos aparentemente no son tan buenos para erradicar contenido dañino como lo son para difundirlo. (Facebook y YouTube no respondieron a la solicitud de comentarios).

Es casi imposible evitar que las empresas recopilen datos sobre usted, incluso si no utiliza sus servicios, todavía tienen sus opciones. Sin embargo, al menos puede limitar cómo los algoritmos lo usan en su contra. Twitter y Facebook te ofrecen opciones cronológicas inversas, donde los tweets y publicaciones de las personas a las que sigues aparecen en el orden en que se agregaron en lugar de priorizar el contenido y las personas que más te interesan. YouTube tiene un modo «incógnito», que dice que su búsqueda e historial no se usarán para recomendar videos. También hay navegadores más privados para restringir la recopilación de datos y evitar que los sitios web lo vinculen a sus visitas o datos anteriores. O simplemente puede dejar de usar estos servicios por completo.

E incluso hay una agencia en algoritmos. El hecho de que una teoría de la conspiración o información errónea aparezca en su línea de tiempo o videos sugeridos no significa que tenga que leerlos o verlos, o que automáticamente e instantáneamente los crea cuando lo hace. Las conspiraciones pueden ser mucho más fáciles de encontrar (incluso si no las ha buscado). Aún decides si quieres seguir el camino que te muestran. Sin embargo, este camino no siempre es obvio. Puede pensar que QAnon es estúpido, pero estará compartiendo contenido #SaveTheChildren. Puede que no crea en QAnon, pero votará para que un miembro del Congreso lo haga. Puede que no caigas en la madriguera del conejo, pero tus amigos y familiares sí lo harán.

O quizás un algoritmo está recomendando algo incorrecto cuando estás más desesperado y vulnerable. ¿Nunca serás tan vulnerable? Facebook y YouTube conocen la respuesta a esto mejor que usted, y están listos y pueden aprovecharla. Puede que tengas que esconder más de lo que crees.

Código abierto es posible gracias a Omidyar Network. Todo el contenido de código abierto es editorialmente independiente y es producido por nuestros periodistas.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *