Wikipedia adopta borrado rápido contra artículos de "IA basura"
Wikipedia, la enciclopedia en línea más grande del mundo, ha implementado una nueva política de “borrado rápido” dirigida específicamente a los artículos generados por inteligencia artificial, a menudo denominados “IA basura”. Esta acción decisiva, adoptada por su comunidad de editores voluntarios, subraya una creciente preocupación por la proliferación de contenido de baja calidad generado por IA y la amenaza potencial que representa para el compromiso de larga data de la plataforma con la precisión y la información verificada por humanos.
La medida surge como una respuesta directa al desafío planteado por la IA generativa: la capacidad de producir rápidamente grandes cantidades de contenido potencialmente falso. Como destacó un editor, “La capacidad de generar rápidamente una gran cantidad de contenido falso es problemática si no tenemos una forma de eliminarlo con la misma rapidez”. Esta nueva política otorga a los administradores la autoridad para eliminar rápidamente artículos generados por IA que cumplan con criterios específicos, evitando los procesos de discusión de eliminación que suelen ser más largos.
Este desarrollo no es un incidente aislado, sino parte de una lucha más amplia y continua dentro de la comunidad de Wikipedia para salvaguardar su integridad en la era de la IA avanzada. Recientemente, en junio de 2025, la Fundación Wikimedia, la organización sin fines de lucro detrás de Wikipedia, se vio obligada a pausar una controvertida prueba de resúmenes de artículos generados por IA. El experimento, que utilizó un modelo de IA de peso abierto llamado Aya de Cohere, enfrentó una reacción abrumadoramente negativa por parte de los editores. Los críticos expresaron fuertes preocupaciones de que los resúmenes de IA pudieran socavar los valores fundamentales de Wikipedia, reemplazando la precisión colaborativa con resultados no verificados y centralizados, y arriesgando la reputación del sitio por su neutralidad y credibilidad. Señalaron los recientes errores de IA de otros gigantes tecnológicos como advertencias, enfatizando el potencial de las “alucinaciones” (información fabricada presentada como un hecho) para comprometer la confiabilidad de Wikipedia.
El término “IA basura” (AI slop) ha surgido para describir esta afluencia de medios de baja calidad generados por máquinas, caracterizados por una clara falta de esfuerzo humano y un volumen abrumador. Se define peyorativamente como “desorden digital”, “contenido de relleno que prioriza la velocidad y la cantidad sobre la sustancia y la calidad”, o “contenido de IA deficiente o no deseado” que prioriza la velocidad sobre la sustancia.
Para combatir este diluvio, un grupo dedicado de editores ha formado “WikiProyecto Limpieza de IA”, un esfuerzo colaborativo destinado a identificar y erradicar el contenido generado por IA sin fuente y mal escrito. Estos editores se han vuelto expertos en reconocer patrones comunes de IA, estilos de prosa y frases reveladoras, como “como modelo de lenguaje de IA, yo…”. Sin embargo, la tarea sigue siendo desafiante, ya que la IA sofisticada puede tejer errores sutiles o fabricaciones descaradas, como una “fortaleza otomana de madera” inexistente, en un texto aparentemente plausible. Investigaciones de octubre de 2024 ya indicaron un aumento significativo, con más del 5% de los nuevos artículos de la Wikipedia en inglés creados en agosto de 2024 siendo marcados como generados por IA, a menudo mostrando menor calidad, sesgos promocionales o puntos de vista específicos.
Aunque la Fundación Wikimedia continúa explorando el potencial de la IA para mejorar la accesibilidad, afirma firmemente que cualquier implementación futura debe implicar la participación directa de la comunidad. El sentimiento general entre los editores es que la participación humana sigue siendo el “bloque de construcción más esencial” del ecosistema de conocimiento de Wikipedia, sirviendo la IA solo como una herramienta de aumento, no como un reemplazo. Las pautas actuales ya enfatizan el riguroso escrutinio y verificación humana para cualquier contenido generado por IA, desaconsejando su uso para crear artículos completos debido al alto riesgo de material erróneo.
La adopción por parte de Wikipedia de una política de borrado rápido para la IA basura sirve como un ejemplo crítico para otras plataformas en línea que lidian con el impacto de la IA generativa. Al empoderar a sus editores voluntarios para abordar rápidamente esta nueva forma de contaminación de contenido, Wikipedia refuerza su posición como un “último bastión” de información confiable y curada por humanos en un panorama digital cada vez más saturado de IA. Esta medida proactiva es vital para mantener los principios fundamentales de la enciclopedia de precisión, neutralidad y construcción colaborativa del conocimiento.