Ex-empleados exponen cómo Meta y TikTok promueven contenido tóxico

Ex-empleados exponen cómo Meta y TikTok promueven contenido tóxico

Exempleados de Meta y TikTok revelan en un documental de la BBC cómo estas empresas promueven contenido dañino para aumentar el engagement.

Por Humberto Toledo el 17 marzo, 2026 a las 13:11

💡 Resumen (TL;DR):

  • Más de una docena de informantes revelaron que Meta y TikTok priorizan la viralidad sobre la seguridad de los usuarios.
  • Investigaciones internas muestran que Instagram Reels tiene un 75% más de acoso y bullying que el feed principal.
  • Moderadores de TikTok tenían órdenes de resolver quejas de políticos antes que reportes de abuso infantil.

Más de una docena de exempleados de TikTok y Meta revelaron en un nuevo documental de la BBC que ambas empresas permitieron deliberadamente la propagación de contenido dañino para dominar el mercado y aumentar su engagement.

El documental “Inside the Rage Machine”, que se estrena el 16 de marzo en BBC Two, compila años de investigación liderada por la periodista Marianna Spring. El trabajo expone documentos internos y testimonios que demuestran cómo la indignación de los usuarios opera como estrategia de negocio.

Un ingeniero de Meta detalló que los altos mandos ordenaron permitir contenido “al límite” —incluyendo misoginia y teorías de conspiración— para competir contra TikTok. “Nos indicaron que esto se debía a la caída en el precio de las acciones”, aseguró el informante.

La prioridad corporativa quedó en evidencia mediante la asignación de recursos. Un exdirectivo explicó que Meta destinó 700 empleados para mejorar Instagram Reels, pero rechazó contratar a dos especialistas en protección infantil y a diez expertos para cuidar la integridad electoral.

Ilustración editorial que muestra un torrente negro y espinoso fluyendo de una forma oscura hacia figuras infantiles.
Ilustración editorial que muestra un torrente negro y espinoso fluyendo de una forma oscura hacia figuras infantiles.

El costo oculto del algoritmo de Reels y TikTok

Matt Motyl, exinvestigador de Meta, filtró estudios internos que confirman la toxicidad de Instagram Reels desde su lanzamiento en 2020. En comparación con el feed principal, esta sección de video registró:

  • 75% más comentarios de acoso y bullying.
  • 19% más discurso de odio.
  • 7% más violencia e incitación.

En el caso de TikTok, un miembro del equipo de confianza y seguridad, identificado como Nick, otorgó acceso al panel interno de quejas de la plataforma. Los registros prueban que los empleados debían priorizar los casos de políticos por encima del contenido que ponía en riesgo a menores de edad.

Nick señaló que las quejas de un político al que compararon con un pollo recibieron atención inmediata. En contraste, la empresa restó prioridad a una joven de 17 años víctima de ciberacoso en Francia y a una adolescente de 16 años en Irak cuyas imágenes sexualizadas circularon en la app.

Respuestas corporativas y juicios en curso

El objetivo de estas decisiones era “cultivar una conexión fuerte” con figuras políticas para evitar posibles regulaciones o bloqueos gubernamentales. La recomendación de Nick para los padres fue directa: “Bórrenla, manténganlos alejados de la app el mayor tiempo posible”.

Por su parte, Ruofan Ding, antiguo ingeniero de machine learning en TikTok, calificó los sistemas de recomendación como una caja negra inmanejable. “Carecemos de control sobre el algoritmo de aprendizaje profundo en sí”, confesó.

Tanto Meta como TikTok negaron las acusaciones. Un portavoz de Meta respondió: “Cualquier sugerencia de que amplificamos deliberadamente contenido dañino para obtener ganancias financieras es falsa”.

TikTok calificó las afirmaciones de “fabricadas” y argumentó que el reportaje “tergiversa fundamentalmente el funcionamiento de nuestros sistemas de moderación”, asegurando que la seguridad infantil es gestionada por equipos dedicados.

El documental sale a la luz en medio de un juicio histórico contra Meta por diseñar plataformas intencionalmente adictivas, un proceso legal que obligó al CEO Mark Zuckerberg a testificar ante tribunales a principios de este mes.

FUENTE

Más de Big Tech