OpenAI lanza Privacy Filter para censurar datos personales

OpenAI lanza Privacy Filter para censurar datos personales

OpenAI lanzó Privacy Filter, un modelo open-source diseñado para detectar y censurar datos personales en texto de forma local.

Por Humberto Toledo el 22 abril, 2026 a las 11:59 PDT

✨︎ Resumen (TL;DR):

  • OpenAI publicó un modelo de pesos abiertos para detectar y ocultar información confidencial de textos.
  • La herramienta procesa ventanas de 128,000 tokens y cuenta con 1.5 mil millones de parámetros técnicos.
  • Empresas podrán cumplir con normativas procesando textos de forma local sin enviar datos a la nube.

OpenAI presentó este martes Privacy Filter, una herramienta de código abierto diseñada para detectar y ocultar información de identificación personal en bloques de texto. Este lanzamiento busca resolver los retos de privacidad empresarial, permitiendo a las organizaciones limpiar datos confidenciales de forma local antes de que lleguen a servidores externos.

Privacy Filter es un modelo de clasificación de tokens que etiqueta secuencias completas en una sola pasada para encontrar y censurar datos sensibles.

El sistema opera bajo la licencia Apache 2.0 y ya está disponible en repositorios como Hugging Face y GitHub. Gracias a su nivel de optimización, los desarrolladores pueden ejecutarlo en una laptop estándar o directo en navegadores web utilizando WebGPU.

A nivel técnico, la arquitectura opera con 1.5 mil millones de parámetros, manteniendo 50 millones activos. Utiliza una estructura de mezcla dispersa de expertos con 128 especialistas y un enrutamiento top-4 por cada token.

Su capacidad destaca por ofrecer una ventana de contexto de 128,000 tokens. Esto le permite procesar y analizar documentos extensos sin necesidad de fragmentarlos en pedazos más pequeños.

Altman acusa a Anthropic de usar marketing del miedo
Te podría interesar:
Altman acusa a Anthropic de usar marketing del miedo
Fotos de stock gratuitas de abstracto, Arte, arte digital
Foto: Landiva Weber / Pexels

Precisión clínica y privacidad empresarial

El algoritmo identifica información en ocho categorías específicas: nombres, direcciones, correos, teléfonos, URL, fechas, números de cuenta y secretos corporativos (como contraseñas o claves de API).

Durante las evaluaciones en el benchmark PII-Masking-300k, el sistema alcanzó un puntaje F1 del 96%. En el análisis de código puro (CredData), logró un nivel de recuperación de 0.965 para localizar credenciales secretas, aunque su precisión directa fue de 0.747.

La eficiencia en el ajuste fino (fine-tuning) es otra de sus ventajas. Al entrenar el modelo con apenas el 10% del dataset médico y legal SPY, los puntajes de rendimiento superaron nuevamente la barrera del 96%.

Según la tarjeta de modelo publicada el 22 de abril, OpenAI combinó texto público y bases de datos sintéticas generadas internamente para el entrenamiento. Este proceso incluyó asistencia de anotación proveniente de un modelo de la familia GPT-5.

La empresa especificó que la herramienta funciona como “un componente de minimización de datos” y no garantiza el anonimato total. Además, calificaron el lanzamiento como una “vista previa” diseñada para recolectar retroalimentación técnica.

Actualmente, el sistema presenta algunas limitantes confirmadas: * Rendimiento inferior al procesar idiomas distintos al inglés o al leer alfabetos no latinos. * Dificultades para identificar y clasificar formatos de nombres poco comunes. * Vulnerabilidad ante trucos de formato, como saltos de línea ocultos dentro de un enlace URL.

Este movimiento atiende directamente al mercado corporativo urgido por cumplir regulaciones estrictas como GDPR o HIPAA. Habilitar una vía para limpiar logs, correos y bases de entrenamiento de forma cien por ciento local resuelve uno de los problemas de seguridad más críticos en la gestión de datos empresariales.

Fuentes: 1, 2, 3, 4

+ Temas Relacionados

Más de AI

Feed