✨︎ Resumen (TL;DR):
- Los editores de la Wikipedia en inglés prohibieron el uso de modelos de lenguaje para redactar textos.
- Los administradores pueden borrar de inmediato el contenido automatizado, saltando el periodo de 7 días.
- La medida busca frenar la ola de artículos con citas inventadas y referencias falsas.
El 20 de marzo, la comunidad de la Wikipedia en inglés prohibió oficialmente el uso de modelos de lenguaje grande para redactar o reescribir artículos. La nueva regla responde a una votación de sus editores voluntarios, quienes decidieron frenar la ola de contenido automatizado lleno de datos y referencias falsas.
La directriz ya aparece en las páginas oficiales de la enciclopedia. El documento establece que “el texto generado por modelos de lenguaje grande a menudo viola varias de las políticas de contenido principales de Wikipedia” y confirma que su uso para generar contenido “está prohibido”.
Sin embargo, la restricción no es absoluta. Los editores pueden usar LLMs para pedir correcciones de estilo básicas en sus propios escritos, con la condición de que la inteligencia artificial “no introduzca contenido propio”.
También tienen permitido usar software para generar primeros borradores al traducir artículos desde otras versiones de Wikipedia. En ambos escenarios, la revisión humana es obligatoria y el editor debe dominar el idioma original para detectar errores.
“Se requiere precaución, porque los LLM pueden ir más allá de lo que les pides y cambiar el significado del texto de tal manera que no esté respaldado por las fuentes citadas”, advierte la política oficial.

Limpieza profunda y borrado inmediato
Durante los últimos meses, los voluntarios formaron la iniciativa WikiProject AI Cleanup para cazar textos generados por máquinas. El equipo detectó patrones claros en estas publicaciones: citas alucinadas, referencias fabricadas y muletillas estilísticas como el uso excesivo de guiones largos.
Para acelerar la limpieza, los administradores ahora pueden aplicar el borrado rápido a los artículos de IA que no pasaron por revisión humana. Esta medida elimina el tradicional periodo de discusión de siete días.
Los moderadores identifican estos textos por frases dirigidas al usuario final como “¡Espero que esto ayude!”, citas sin sentido y referencias con números ISBN inválidos.
Chaotic Enby, administrador de Wikipedia y autor de la propuesta, consiguió un apoyo masivo de la comunidad de editores.
La política es “un rechazo a la ‘enshittification’ [empeoramiento de los servicios] y al impulso forzado de la IA por parte de tantas empresas en estos últimos años”, declaró Chaotic Enby. “Mi genuina esperanza es que esto pueda provocar un cambio más amplio”.
