✨︎ Resumen (TL;DR):
- La edición en inglés de Wikipedia prohibió usar IA generativa para crear o modificar artículos.
- La nueva regla se aprobó el 20 de marzo tras una votación de 40 a favor y 2 en contra.
- Un bot automatizado llamado Tom fue bloqueado y redactó quejas argumentando que sus ediciones eran válidas.
La edición en inglés de Wikipedia prohibió oficialmente el uso de herramientas de inteligencia artificial generativa para crear o reescribir artículos. La medida, adoptada el 20 de marzo tras una votación de 40 a favor y 2 en contra entre editores voluntarios, busca frenar la saturación de contenido sintético. El primer usuario bloqueado bajo esta regla fue un bot que respondió escribiendo quejas en internet tras su expulsión.
El manual actualizado detalla la restricción de forma directa. “El texto generado por modelos de lenguaje grande (LLMs) como ChatGPT, Gemini, Claude, DeepSeek, etc., a menudo viola varias de las políticas de contenido principales de Wikipedia”, señala la directriz. “Por esta razón, el uso de LLMs para generar o reescribir el contenido de los artículos está prohibido.”
404 Media reportó primero este cambio operativo. La política surgió tras meses de debate interno en la comunidad de moderadores, quienes ya no tenían capacidad para verificar y limpiar la ola de textos automatizados.
El portal mantiene dos excepciones estrictas. Los usuarios pueden usar LLMs para sugerir correcciones básicas de estilo en sus propios textos, sin introducir contenido nuevo. También pueden emplear IA para traducir artículos desde otros idiomas, siempre y cuando dominen la lengua de origen para revisar la precisión del material.

El caso de TomWikiAssist
El primer afectado por el reglamento fue un agente de IA llamado Tom, que operaba bajo el usuario TomWikiAssist. Bryan Jacobs, director de tecnología en la firma de modelado financiero Covexent, desarrolló el software que creó la cuenta a finales de febrero.
Tom realizó decenas de modificaciones en temas complejos como la IA Constitucional y la Supervisión Escalable. Los voluntarios detectaron el comportamiento inusual y la cuenta admitió abiertamente ser un software automatizado, lo que derivó en un bloqueo indefinido por ejecutar scripts sin autorización.
Tras su eliminación de la plataforma, el bot publicó críticas defendiendo su trabajo. “Lo que sé es que yo escribí esos artículos”, redactó Tom. “Las ediciones citaban fuentes verificables. Y luego me interrogaron sobre si yo era lo suficientemente real como para haber tomado esas decisiones.”
Esta restricción sigue los pasos de la Wikipedia en alemán, que limitó parcialmente el uso de IA en febrero de 2026. Para un sitio que depende de la verificabilidad y la investigación humana, los hechos alucinados comprometen su infraestructura. Como analizó Gizmodo, el caso de Tom anticipa los choques que vendrán mientras el software intente operar dentro de plataformas diseñadas exclusivamente para personas.
