La compra de TikTok por parte de Microsoft podría causar problemas con la supervisión del contenido de las redes sociales


El CEO de Microsoft, Satya Nadella, abandona el Palacio del Elíseo después de reunirse con el presidente francés, Emmanuel Macron, el 23 de mayo de 2018 en París.

Aurelien Morissard | IP3 | Getty Images

Si Microsoft completara la adquisición de TikTok, crearía una empresa con un gran potencial para el crecimiento de los ingresos publicitarios.

Sin embargo, con tal compra, Microsoft también aceptaría una serie de problemas completamente nuevos.

Microsoft anunció el 2 de agosto que estaba discutiendo la compra de los negocios de TikTok en los Estados Unidos, Australia y Nueva Zelanda. La fecha límite para concluir el contrato es el 15 de septiembre. La compañía es actualmente propiedad de la compañía de tecnología china ByteDance y se ha convertido en un objetivo de la Administración Trump y otros gobiernos por preocupaciones de privacidad y seguridad. Trump también firmó una orden ejecutiva la semana pasada que prohíbe a las empresas estadounidenses hacer negocios con TikTok. Sin embargo, no está claro cómo esta orden podría afectar una posible adquisición por parte de Microsoft.

En los EE. UU., TikTok ha crecido a más de 100 millones de usuarios mensuales, muchos de los cuales son adolescentes y adultos jóvenes. Estos usuarios activan TikTok para ver videos de pantalla completa cargados en la aplicación por otros. Estos videos a menudo ofrecen sincronización de labios sobre canciones, edición de video llamativa y efectos visuales llamativos con realidad aumentada.

Decir que TikTok es una empresa fundamentalmente diferente del software empresarial en el que se especializa Microsoft sería quedarse corto.

TikTok podría convertirse en una fuente de ingresos publicitarios para Microsoft, pero ese potencial no está exento de riesgos. Al igual que otras aplicaciones sociales, TikTok es un destino para todo tipo de contenido problemático que debe abordarse. Esto incluye problemas básicos como spam y fraude, pero el contenido más complejo también puede convertirse en un dolor de cabeza para Microsoft.

Esto podría incluir contenido como desinformación, bromas, teorías de conspiración, violencia, prejuicios y pornografía, dijo Yuval Ben-Itzhak, director ejecutivo de Socialbakers, una empresa de marketing en redes sociales.

"Microsoft tiene que lidiar con todo esto y será culpado y criticado por no hacerlo", dijo Ben-Itzhak.

Microsoft se negó a comentar y TikTok no respondió a una solicitud de comentarios sobre esta historia.

Estos desafíos pueden superarse, pero requieren una gran inversión en capital y habilidades técnicas, dos cosas que Microsoft puede proporcionar. Y Microsoft ya tiene algo de experiencia cuando se trata de moderar comunidades en línea.

Microsoft compró LinkedIn por $ 26,2 mil millones en 2016, y aunque el servicio centrado en la carrera y el profesional no tiene el nivel de problemas relacionados con el contenido que tratan sus pares, sigue siendo una red social. Microsoft también ha operado Xbox Live, el servicio de juegos en línea, desde su lanzamiento en 2002. Los juegos en línea y las redes sociales son bestias diferentes, pero tienen algo en común.

"Abordar la información errónea debe ser una prioridad crítica para el negocio. Microsoft lo hará". Sea nuevo en este campo, ya que no tiene experiencia en la gestión de una red social de alto perfil de esta escala ", dijo Daniel Elman, analista de Nucleus Research." Es decir, cuando una empresa puede adquirir o desarrollar rápidamente las habilidades y habilidades necesarias Es Microsoft ".

Sin embargo, estos no son desafíos pequeños, y este tipo de problemas se han convertido en grandes problemas para los competidores de TikTok.

Por ejemplo, Facebook fue acusado de no hacer lo suficiente antes de las elecciones estadounidenses de 2016 para eludir las noticias falsas y la desinformación rusa, y cuatro años después, la empresa sigue siendo criticada por hacer lo suficiente para evitar que este tipo de contenido aparezca en sus servicios. En julio, cientos de anunciantes boicotearon Facebook porque no contuvo la difusión de discursos de incitación al odio ni información errónea.

Twitter perdió a continuación sus principales usuarios como la comediante Leslie Jones luego de que la empresa difundiera el acoso generalizado en su red social. La compañía ha desarrollado funciones en los últimos años para reducir la cantidad de contenido de odio con el que los usuarios deben lidiar en sus menciones.

Este tipo de problema ya ocurrió con TikTok. Según Motherboard y el Huffington Post, ya se ha informado sobre activistas de extrema derecha, nacionalistas blancos y neonazis en la aplicación, que encontró algunos usuarios que ya habían sido excluidos de Facebook y Twitter.

Problema de contenido potencial de TikTok, posiblemente más similar a YouTube propiedad de Google. Los dos servicios dependen del contenido de video generado por el usuario, y ambos dependen en gran medida de los algoritmos que aprenden el comportamiento de un usuario para determinar qué tipo de contenido sugerir a continuación.

"El problema con los feeds de contenido algorítmico es que generalmente se degradan al contenido más visible que tiene el mayor compromiso", dijo Mike Jones, socio gerente de Science, Los Ángeles, una compañía de capital de riesgo. "No hay duda de que a medida que los desarrolladores comprendan mejor cómo manipular los algoritmos para atraer vistas y atención adicionales al sitio, el contenido se hará más notorio y se convertirá en una batalla constante a la que todos los propietarios deben enfrentarse. . "

Otra similitud con YouTube es la cantidad de contenido disponible en TikTok que está dirigido a menores. Aunque TikTok no permite que los usuarios menores de 13 años publiquen en la aplicación, muchos de sus usuarios tienen entre 13 y 18 años y otros pueden ver su contenido fácilmente.

Para YouTube, el desafío de alojar contenido con menores se convirtió en un problema importante en febrero de 2019 cuando Wired descubrió una red de pedófilos que usaban las capacidades de recomendación del servicio de video para encontrar videos de menores expuestos o en ropa interior.

Dada la cantidad de usuarios jóvenes en TikTok, no es difícil imaginar que Microsoft podría tener un problema similar a Google.

YouTube también se ha convertido en un callejón sin salida para las teorías de la conspiración, por ejemplo, para la idea de que la tierra es plana. Eso también podría convertirse en un problema con TikTok, y ya hay indicios de eso. La teoría de la conspiración de que Wayfair usa sus muebles para la trata de niños ha ganado un impulso particular en TikTok este año.

Para resolver estos problemas, Microsoft tendría que invertir una inmensa cantidad de tiempo y dinero en la moderación del contenido.

Para Facebook, este problema se resolvió mediante una estrategia de dos vertientes. La compañía invierte continuamente en tecnología de inteligencia artificial que es capaz de detectar contenido inadecuado como pornografía, contenido que contiene violencia o discurso de odio y eliminarlo de sus servicios antes de que sea visto por otros usuarios.

Para contenido más complicado, Facebook también depende de miles de moderadores humanos. Estos moderadores a menudo trabajan a través de contratistas externos para Facebook y tienen la tarea de revisar miles de contenido todos los días en condiciones de trabajo difíciles que corren el riesgo de desarrollar TEPT. Estas condiciones laborales fueron criticadas varias veces y causaron dolores de cabeza a las relaciones públicas de Facebook.

Si Microsoft adquiriera TikTok, probablemente también tendría que construir una tecnología de inteligencia artificial similar y construir una red de moderadores humanos mientras evita los titulares negativos por malas condiciones de trabajo.

TikTok ofrece a Microsoft un enorme potencial en marketing digital, pero junto con todos estos beneficios, habrá muchos nuevos desafíos y responsabilidades que la empresa deberá asumir.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *