Wikipedia establece una política estricta contra el uso de IA en la generación de contenido
A medida que la inteligencia artificial se adentra en el mundo editorial, las plataformas digitales están definiendo reglas claras para su uso. Wikipedia ha actualizado su política para prohibir explícitamente que sus editores utilicen textos generados por modelos de lenguaje grande (LLMs) en la creación de artículos.

Una prohibición clara y específica
La nueva normativa establece que «el uso de LLMs para generar o reescribir el contenido de los artículos está prohibido». Esta declaración actualiza y clarifica un lenguaje anterior más vago, que solo sugería no usar estas herramientas para crear artículos desde cero.
Votación y apoyo de la comunidad
La medida, sometida a votación por la extensa comunidad de editores voluntarios de la enciclopedia en línea, obtuvo un apoyo mayoritario de 40 votos a favor frente a 2 en contra, según reportes. El tema del uso de IA en los artículos se había convertido en un asunto controvertido dentro de la plataforma.
¿Qué usos de la IA sí están permitidos?
La política no prohíbe completamente la inteligencia artificial. Los editores sí pueden utilizar LLMs para sugerir ediciones básicas de corrección en sus propios escritos, siempre y cuando:
- El texto sea revisado por un humano antes de su incorporación.
- La herramienta no introduzca contenido propio o no verificado.
Advertencias y riesgos asociados
La misma política advierte que se requiere «precaución», ya que los modelos de lenguaje pueden «ir más allá de lo solicitado y cambiar el significado del texto de manera que no esté respaldada por las fuentes citadas». Esto subraya la importancia de la supervisión humana en todo proceso editorial.
Esta decisión marca un precedente importante en cómo las grandes plataformas de contenido colaborativo gestionan la integración de las herramientas de IA, priorizando la precisión y la confiabilidad de la información por encima de la automatización.