Meta lanza IA para moderar contenido y recorta contratistas externos

Meta lanza IA para moderar contenido y recorta contratistas externos

Meta lanza una IA global para moderar contenido y dar soporte en Facebook e Instagram, reduciendo el uso de contratistas.

Por Humberto Toledo el 19 marzo, 2026 a las 16:59

💡 Resumen (TL;DR):

  • Meta activó un asistente de IA global para ofrecer soporte técnico instantáneo en Facebook e Instagram.
  • Los nuevos sistemas detectan el doble de contenido sexual infractor y reducen los errores de revisión en más de 60%.
  • La empresa disminuirá su dependencia de moderadores humanos externos de firmas como Accenture y Teleperformance.

Meta anunció la implementación global de un asistente de inteligencia artificial para brindar soporte a los usuarios de Facebook e Instagram, junto con sistemas avanzados para moderar contenido. La estrategia permitirá a la compañía tecnológica reducir su dependencia de proveedores externos, optimizar las respuestas a menos de cinco segundos y combatir amenazas como el fraude, la explotación infantil y la venta de drogas.

El nuevo asistente, que Meta comenzó a probar en diciembre de 2025, ya está activo en las apps de iOS y Android, así como en el Centro de Ayuda para computadora. Ofrece atención 24/7 para recuperar cuentas, gestionar perfiles y reportar problemas.

Gracias a estos sistemas de seguridad impulsados por IA, los hackeos de cuentas nuevas cayeron más de un 30% a nivel mundial durante el último año, acelerando también los procesos de apelación.

Meta lanza IA para moderar contenido y recorta contratistas externos
Meta lanza IA para moderar contenido y recorta contratistas externos

Menos humanos, más algoritmos contra el fraude

Para el trabajo pesado de moderación, la empresa planea disminuir paulatinamente el uso de contratistas de terceros, que históricamente incluían a firmas como Accenture, Concentrix y Teleperformance, delegando estas tareas a sus nuevos modelos automatizados.

En un comunicado oficial, Meta explicó el cambio de enfoque operativo: “Si bien seguiremos teniendo personas que revisen el contenido, estos sistemas podrán asumir el trabajo que se adapta mejor a la tecnología, como las revisiones repetitivas de contenido gráfico o áreas donde los actores maliciosos cambian constantemente sus tácticas, como ocurre con la venta de drogas ilícitas o las estafas”.

Los primeros resultados de la integración de IA arrojan métricas específicas:

  • Detección del doble de contenido infractor relacionado con solicitudes sexuales adultas en comparación con los equipos humanos.
  • Reducción de la tasa de error en más de un 60%.
  • Identificación de 5,000 intentos de estafa diarios que involucran credenciales de inicio de sesión robadas.
  • Mayor precisión para localizar perfiles falsos que suplantan a figuras públicas y celebridades.

Esta reestructuración ocurre en un contexto de presión legal, donde Meta enfrenta múltiples demandas por temas de seguridad infantil. La plataforma abandonó su programa de fact-checking externo el año pasado para adoptar un sistema de Notas de la Comunidad. Respecto a los rumores recientes sobre posibles recortes de hasta 20% de su plantilla laboral para financiar su inversión en IA, Meta desestimó el dato, calificándolo simplemente como “un informe especulativo sobre enfoques teóricos”.

FUENTE

Más de Big Tech