La mejor forma de proteger la libertad de expresión en las redes sociales es fomentar la competencia.


Tras los informes de genocidio en Myanmar, Facebook prohibió a los principales generales y otros líderes militares del país utilizar la plataforma para incitar al odio. La compañía también prohíbe a Hezbollah en su plataforma debido a su condición de organización terrorista extranjera designada por Estados Unidos, a pesar de que el partido tiene escaños en el parlamento libanés. Y prohíbe a los líderes en países que están bajo sanciones estadounidenses.

Al mismo tiempo, tanto Facebook como Twitter se han adherido al principio de que el contenido publicado por funcionarios electos merece más protección que el material escrito por la gente común, lo que otorga a los políticos más poder que el discurso de la gente. Esta posición contradice una amplia evidencia de que los discursos de odio de figuras públicas tienen una mayor influencia que los discursos similares de usuarios comunes.

Sin embargo, está claro que estas directrices no se aplican por igual en todo el mundo. Después de todo, Trump está lejos de ser el único líder mundial que utiliza estas plataformas para generar malestar. Otros ejemplos son el BJP, el partido del primer ministro indio Narendra Modi.

Si bien la prohibición de Trump ciertamente trae beneficios a corto plazo, y mucha satisfacción, la decisión (y las que se tomaron anteriormente) plantea preguntas más fundamentales para el idioma. ¿Quién debería tener derecho a elegir lo que podemos y no podemos decir? ¿Qué significa cuando una empresa puede censurar a un funcionario público?

El personal político de Facebook, y Mark Zuckerberg en particular, han demostrado ser malos jueces durante años, lo que es o no una frase justa. Desde la prohibición de los senos en la plataforma hasta la tendencia a suspender a los usuarios por hablar en contra del discurso de odio, o el fracaso total para erradicar los llamados a la violencia en Myanmar, India y otros lugares, simplemente no hay necesidad de contactar a Zuckerberg y otros líderes tecnológicos. confiar para poder tomar estas grandes decisiones correctamente.

Recoger 230 no es la respuesta

Para abordar estas preocupaciones, algunos piden más regulación. En los últimos meses, ha habido numerosos llamados a ambos lados del pasillo para derogar o enmendar la Sección 230, la ley que protege a las empresas de la responsabilidad por las decisiones que toman sobre el contenido que alojan, a pesar de algunas tergiversaciones graves por parte de los políticos. quién debería saber mejor cómo funciona realmente la ley.

La cuestión es que la derogación de la Sección 230 probablemente no habría obligado a Facebook o Twitter a eliminar los Tweets de Trump, ni habría impedido a las empresas eliminar el contenido que les resultaba incómodo, ya sea que el contenido fuera pornografía o no. o el incómodo abuso verbal de Trump. Son los derechos de la Primera Enmienda de las empresas los que les permiten seleccionar sus plataformas como mejor les parezca.

En cambio, la derogación de la Sección 230 obstaculizaría a los competidores frente a Facebook y los otros gigantes tecnológicos y pondría a las plataformas en mayor riesgo de responsabilidad por lo que eligen alojar. Sin la Sección 230, por ejemplo, los abogados de Facebook podrían decidir que alojar contenido antifascista es demasiado arriesgado dados los ataques de la administración Trump a Antifa.

¿Qué significa cuando una empresa puede censurar a un funcionario público?

Este no es un escenario descabellado: las plataformas ya están restringiendo la mayor parte del contenido que incluso podría estar vagamente vinculado a organizaciones terroristas extranjeras por temor a que las leyes de asistencia material puedan hacerlas responsables. Como resultado, se han eliminado las referencias a crímenes de guerra en Siria e importantes contradiscursos contra organizaciones terroristas en el extranjero. De manera similar, las plataformas han sido criticadas por bloquear contenido que parece estar relacionado con países bajo sanciones de EE. UU. En un ejemplo particularmente absurdo: Etsy ha prohibido una muñeca hecha a mano, Fabricado en Estados Unidos porque el listado incluía la palabra «persa».

No es difícil ver cómo el aumento de la responsabilidad de la plataforma puede resultar en empresas cuyo único interés no es conectar el mundo sino beneficiarse de él, eliminando un discurso aún más importante.

Las plataformas no tienen que ser neutrales, pero tienen que jugar limpio

Independientemente de lo que repita una y otra vez el senador Ted Cruz, no hay nada que exija que estas plataformas sean neutrales y no deban serlo. Si Facebook quiere echar a Trump, o fotos de madres que amamantan, esa es la prerrogativa de la compañía. El problema no es que Facebook tenga derecho a hacerlo, sino que sus usuarios prácticamente no tienen a dónde ir debido a sus adquisiciones y su crecimiento sin obstáculos y ya no tienen que lidiar con reglas cada vez más problemáticas y moderación automatizada de contenido.

La respuesta no es eliminar la Sección 230 (que a su vez impediría la competencia) sino crear las condiciones para una mayor competencia. Aquí es donde la administración Biden debería centrar su atención en los próximos meses. Dichos esfuerzos deben incluir llegar a expertos en promoción y moderación de contenido académico para comprender la variedad de problemas que enfrentan los usuarios en todo el mundo, en lugar de solo centrarse en el debate dentro de los EE. UU.



Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *