GitHub entrenará IA con tu código por defecto

GitHub entrenará IA con tu código por defecto

A partir del 24 de abril de 2026, GitHub usará el código de usuarios de Copilot para entrenar su IA por defecto.

Por Humberto Toledo el 25 marzo, 2026 a las 19:19

✨︎ Resumen (TL;DR):

  • GitHub usará datos de interacción de usuarios de Copilot Free, Pro y Pro+ para entrenar sus modelos.
  • La política entra en vigor el 24 de abril de 2026 y requiere desactivación manual desde la configuración.
  • Los desarrolladores critican la medida porque recolectará fragmentos procesados en repositorios privados activos.

GitHub anunció que a partir del 24 de abril de 2026 utilizará los datos de interacción de millones de usuarios de Copilot para entrenar sus modelos de inteligencia artificial. La medida aplicará automáticamente a las cuentas gratuitas y de pago individual, a menos que los desarrolladores desactiven la opción.

El cambio de política, revelado por el director de producto Mario Rodriguez, afecta directamente los planes Copilot Free, Pro y Pro+. Las suscripciones Business y Enterprise, junto con los estudiantes y profesores de los programas educativos, quedan exentos del monitoreo.

GitHub Copilot es un asistente de programación que sugiere código en tiempo real. Para mejorar sus respuestas, la plataforma recopilará sugerencias aceptadas, fragmentos, contexto alrededor del cursor, comentarios, estructura de repositorios y métricas del chat.

El código en reposo dentro de repositorios privados no alimentará directamente el entrenamiento. Sin embargo, los fragmentos procesados durante sesiones activas de código sí serán recolectados si el usuario no restringe los permisos en su cuenta personal.

Así compró Google a DeepMind: el acuerdo de 400 mdd
Te podría interesar:
Así compró Google a DeepMind: el acuerdo de 400 mdd
**Alt text (Spanish):**
Una estructura central compleja y mecánica absorbe flujos de datos y código de miles de desarrolladores individuales.
**Alt text (Spanish):** Una estructura central compleja y mecánica absorbe flujos de datos y código de miles de desarrolladores individuales.

La justificación y el enojo de la comunidad

Mario Rodriguez defendió la decisión argumentando que sigue las “prácticas establecidas de la industria”, apuntando a políticas de opt-out similares en Anthropic, JetBrains y Microsoft.

Según la compañía, los modelos entrenados previamente con datos de interacción de sus propios empleados mostraron “mayores tasas de aceptación en múltiples idiomas” frente a los construidos con datos sintéticos y código público.

La comunidad respondió con fuertes críticas en foros de GitHub y Reddit. Las quejas exponen instrucciones confusas para bloquear la recolección y el temor de exponer el código de colaboradores sin su consentimiento.

“Es un recordatorio oportuno también de que ninguno de estos modelos de IA puede existir sin nosotros”, escribió un usuario en la cobertura del sitio Windows Central. “Sin personas reales produciendo material real para alimentar el motor, no son nada”.

Quienes ya habían bloqueado el uso de sus datos conservarán sus preferencias intactas. El resto de la base de usuarios debe entrar a la configuración de Copilot y apagar el uso compartido de información antes de la fecha límite para evitar que sus desarrollos terminen en servidores corporativos.

Fuentes: 1, 2, 3, 4, 5

Más de Programación