La plataforma colaborativa implementa restricciones para herramientas de generación automática y prioriza la vigilancia editorial en sus contenidos
25.03.2026 • 11:32hs • Inteligencia Artificial
Inteligencia Artificial
Wikipedia tomó una decisión drástica que sacude a OpenAI, Google y todo el mundo tecnológico
En un movimiento que busca preservar la integridad de la información frente al avance de la automatización, la versión inglesa de Wikipedia anunció la prohibición del uso de Inteligencia Artificial (IA) generativa para escribir o editar sus entradas. La medida apunta directamente a los grandes modelos de lenguaje (LLM) como ChatGPT (OpenAI), Gemini (Google), Claude (Anthropic) o DeepSeek.
Desde la plataforma alegaron que el uso de estos asistentes a menudo infringe las políticas de contenido principales de la enciclopedia. El principal riesgo detectado es la introducción de información modificada que cambia el significado original de los textos o que inventa datos no respaldados por fuentes bibliográficas.
Las únicas excepciones: corrección y traducción
A pesar de la restricción general, Wikipedia ha dejado una ventana abierta para el uso de la IA en dos casos específicos, siempre bajo estricta supervisión humana:
-
Correcciones básicas: Los editores pueden recurrir a la IA para la revisión de textos y corregir errores gramaticales o de ortografía en sus propios artículos, asegurándose de que la herramienta no añada contenido nuevo ni altere la esencia del mensaje
-
Traducción asistida: Se permite el uso de LLM para traducir entradas de otros idiomas a la versión inglesa. No obstante, esto requiere una supervisión total por parte del editor para verificar que la traducción sea fiel y cumpla con las normativas de la plataforma
El factor de la "alucinación" de la IA
La organización subrayó la necesidad de actuar con cautela, incluso en las tareas permitidas. Según advirtieron, los modelos de lenguaje pueden "ir más allá de lo solicitado" y distorsionar el sentido de una frase de manera que ya no coincida con las fuentes citadas, un fenómeno conocido en la industria como "alucinación".
La medida fue impulsada por la administradora Chaotic Enby, quien celebró la decisión como un paso hacia el empoderamiento de las comunidades digitales. "Deseo que esto pueda dar lugar a un cambio más amplio, donde los propios usuarios sean los que decidan si la IA debe ser aceptada y en qué medida", manifestó.
¿Un antecedente para otras plataformas?
Para el ecosistema de la Economía Digital, la decisión de Wikipedia marca un precedente importante. En un momento donde el contenido generado por IA inunda la web, la enciclopedia libre apuesta por el factor humano como el único garante de la veracidad.
Esta política no solo busca evitar el spam de baja calidad, sino también proteger a Wikipedia de posibles problemas legales derivados de infracciones de derechos de autor o de la difusión de noticias falsas generadas por algoritmos.