✨︎ Resumen (TL;DR):
- OpenAI desglosó la arquitectura técnica que regula la creación de videos con IA en su plataforma.
- Los clasificadores automatizados bloquean entre 95 y 99% del contenido problemático antes de la descarga.
- La empresa responde a la presión de actores, estudios de Hollywood y reguladores sobre los riesgos de suplantación.
Seis meses después del lanzamiento de Sora 2 en septiembre de 2025, OpenAI publicó este 23 de marzo un informe técnico sobre la arquitectura de seguridad de su generador de video. El sistema multicapa busca frenar la creación de deepfakes, el robo de identidad y la distribución de contenido dañino, en respuesta directa a las exigencias de reguladores y de la industria del entretenimiento.
El núcleo operativo recae en el rastreo de origen de cada archivo. C2PA es un estándar criptográfico de la industria que incrusta metadatos permanentes en los videos. Esta firma digital opera junto con marcas de agua dinámicas y herramientas de detección interna que permiten confirmar si un clip nació dentro del ecosistema de la compañía.
La protección de identidad exige nuevos controles de consentimiento. Quienes suben fotos para generar clips deben confirmar que tienen permiso explícito de las personas retratadas. Para figuras públicas, la generación de texto a video está bloqueada de forma predeterminada, a menos que usen la función cameo (la cual requiere verificación cruzada de audio y video para crear un clon digital propio).
Filtros multicapa y protección para menores
El bloqueo de material indebido ocurre en dos fases principales. Antes de la creación, los algoritmos escanean los prompts de texto y las imágenes subidas. Después, una capa de seguridad extra revisa los fotogramas, transcripciones de audio y descripciones de escenas.
Según la tarjeta de sistema publicada el 30 de septiembre de 2025, el modelo aplica las siguientes restricciones de moderación:
- Bloqueo de entre el 95 y 99% del contenido que viola las políticas (violencia, desnudez, extremismo y CSAM).
- Modo estricto para menores de 18 años, que impide mensajes directos entre adultos y adolescentes, y oculta perfiles de menores en las recomendaciones.
- Controles parentales integrados en la cuenta de ChatGPT para gestionar el tiempo de scroll continuo y forzar un feed no personalizado.
- Filtros de audio automatizados que evitan la imitación de artistas vivos o pistas musicales con derechos de autor, respaldados por un sistema de eliminación para creadores afectados.
El reporte oficial, titulado “Creando con Sora de manera segura”, se publica en un momento de alta tensión corporativa. En noviembre, la organización Public Citizen exigió desconectar la plataforma acusando un “desprecio imprudente” por la seguridad del producto y la integridad democrática, mientras el sindicato SAG-AFTRA presiona por blindar legalmente los rostros de los actores.
Ante el escrutinio, la tecnológica admitió en su comunicado que “no hay una solución única para la procedencia” y reconoció abiertamente el límite de sus herramientas de moderación, señalando que “cierto contenido engañoso es altamente contextual y no es fácilmente detectable por los clasificadores”.
