La enciclopedia colaborativa Wikipedia aprobó a finales de marzo de 2026 una política que prohíbe el uso de modelos de lenguaje (LLMs) para crear, reescribir o expandir artículos, con excepciones puntuales.
La decisión fue debatida y aprobada por la comunidad de editores de Wikipedia en inglés a través de sus mecanismos internos de consenso, como los procesos de Request for Comment (RfC), donde se discuten cambios en las políticas editoriales.
Esto implica un cambio relevante en el contexto actual. Mientras gran parte de internet avanza hacia la automatización de contenidos, Wikipedia refuerza un modelo editorial basado en supervisión humana.

Un uso acotado: la IA como herramienta, no como autora
La política no elimina completamente la inteligencia artificial, pero define un marco de uso limitado. Se permite su aplicación en tareas de mejora de redacción sobre textos ya escritos por humanos, siempre con revisión estricta, y en la generación de borradores iniciales para traducciones.
El punto central es que la IA no puede introducir contenido original sin validación editorial. En la práctica, esto supone que el conocimiento dentro de Wikipedia sigue siendo construido por personas, con la IA funcionando como soporte operativo.
Este enfoque introduce una lógica clara: la automatización puede asistir, pero no reemplazar el criterio humano en la construcción de información pública.
La tensión de fondo: velocidad versus confiabilidad
La decisión refleja una tensión estructural en el ecosistema digital. Los modelos generativos permiten producir contenido a gran escala, pero presentan limitaciones en precisión, contexto y trazabilidad de fuentes.
Wikipedia opera bajo reglas diferentes. Cada afirmación debe poder vincularse con una fuente verificable. Este requisito entra en conflicto con sistemas que generan texto plausible sin garantizar su origen.
En términos operativos, esto se traduce en que la eficiencia de la IA no es suficiente si compromete la confiabilidad. La comunidad editorial optó por sostener el estándar histórico del proyecto, incluso a costa de limitar la automatización.

Un impacto que excede a Wikipedia
El alcance de esta decisión va más allá de la plataforma. Wikipedia ocupa un rol estructural en internet: sus contenidos son utilizados como referencia por buscadores, asistentes digitales y sistemas de inteligencia artificial.
Esto quiere decir que cualquier cambio en sus políticas afecta indirectamente a todo el ecosistema de información.
En un escenario real, esto se traduce en una señal para el mercado: el contenido confiable requiere validación humana. La producción masiva sin control pierde legitimidad en entornos donde la calidad es un factor crítico.
Un precedente en la relación entre IA y contenido
La medida introduce un punto de inflexión. No se trata de rechazar la inteligencia artificial, sino de redefinir su lugar en el proceso editorial.
El modelo que emerge es híbrido. La IA acelera tareas, pero la responsabilidad sobre el contenido sigue siendo humana.
Esto establece un criterio que puede extenderse a otras plataformas: la confianza en la información no depende solo de la capacidad de generarla, sino de la capacidad de verificarla.
Esto marca un cambio relevante. Mientras la producción de contenido avanza hacia la automatización a escala, Wikipedia refuerza un modelo editorial basado en supervisión humana.
Leer más
- Lyria 3 Pro: la IA de Google que crea canciones completas de hasta 3 minutos con música y letra
- Jensen Huang, CEO de NVIDIA, afirma que la AGI ya existe, pero advierte que sigue siendo limitada
- Claude AI: cómo controlar tu computadora de forma remota y automática sin estar frente a la pantalla









