Wikipédia adopte la "suppression rapide" contre les articles IA de mauvaise qualité
Wikipédia, la plus grande encyclopédie en ligne du monde, a mis en œuvre une nouvelle politique de “suppression rapide” ciblant spécifiquement les articles générés par l’intelligence artificielle, souvent désignés sous le terme de “brouillon IA” (AI slop). Cette action décisive, adoptée par sa communauté d’éditeurs bénévoles, souligne une préoccupation croissante concernant la prolifération de contenu de faible qualité généré par l’IA et la menace potentielle qu’il représente pour l’engagement de longue date de la plateforme envers l’exactitude et l’information vérifiée par l’homme.
Cette initiative est une réponse directe au défi posé par l’IA générative : la capacité à produire rapidement de vastes quantités de contenu potentiellement faux. Comme l’a souligné un éditeur : “La capacité à générer rapidement beaucoup de contenu bidon est problématique si nous n’avons pas un moyen de le supprimer tout aussi rapidement.” Cette nouvelle politique accorde aux administrateurs l’autorité de supprimer rapidement les articles générés par l’IA qui répondent à des critères spécifiques, en contournant les processus de discussion de suppression généralement plus longs.
Ce développement n’est pas un incident isolé, mais fait partie d’une lutte plus large et continue au sein de la communauté Wikipédia pour sauvegarder son intégrité à l’ère de l’IA avancée. Tout récemment, en juin 2025, la Fondation Wikimedia, l’organisation à but non lucratif derrière Wikipédia, a été contrainte de suspendre un essai controversé de résumés d’articles générés par l’IA. L’expérience, qui utilisait un modèle d’IA à poids ouvert nommé Aya par Cohere, a fait face à une réaction massivement négative de la part des éditeurs. Les critiques ont exprimé de vives inquiétudes quant au fait que les résumés d’IA pourraient saper les valeurs fondamentales de Wikipédia, remplaçant la précision collaborative par des résultats non vérifiés et centralisés et risquant la réputation du site en matière de neutralité et de crédibilité. Ils ont cité de récentes gaffes d’IA commises par d’autres géants de la technologie comme des avertissements, soulignant le potentiel des “hallucinations” – des informations fabriquées présentées comme des faits – à compromettre la fiabilité de Wikipédia.
Le terme “brouillon IA” (AI slop) lui-même a émergé pour décrire cet afflux de médias de faible qualité générés par machine, caractérisés par un manque distinct d’effort humain et un volume écrasant. Il est défini péjorativement comme un “désordre numérique”, un “contenu de remplissage privilégiant la vitesse et la quantité plutôt que la substance et la qualité”, ou un “contenu IA de mauvaise qualité ou indésirable” qui privilégie la vitesse à la substance.
Pour lutter contre ce déluge, un groupe dédié d’éditeurs a formé le “WikiProjet Nettoyage IA”, un effort collaboratif visant à identifier et à éradiquer le contenu généré par l’IA non sourcé et mal écrit. Ces éditeurs sont devenus aptes à reconnaître les modèles d’IA courants, les styles de prose et les phrases révélatrices, telles que “en tant que modèle linguistique d’IA, je…”. Cependant, la tâche reste difficile, car une IA sophistiquée peut tisser des erreurs subtiles ou des fabrications pures et simples, comme une “forteresse ottomane en bois” inexistante, dans un texte apparemment plausible. Des recherches d’octobre 2024 ont déjà indiqué une augmentation significative, avec plus de 5 % des nouveaux articles de Wikipédia en anglais créés en août 2024 étant signalés comme générés par l’IA, affichant souvent une qualité inférieure, des biais promotionnels ou des points de vue spécifiques.
Bien que la Fondation Wikimedia continue d’explorer le potentiel de l’IA pour améliorer l’accessibilité, elle déclare fermement que toute mise en œuvre future doit impliquer la participation directe de la communauté. Le sentiment général parmi les éditeurs est que l’engagement humain reste le “bloc de construction le plus essentiel” de l’écosystème de connaissances de Wikipédia, l’IA ne servant que d’outil d’augmentation, et non de remplacement. Les directives actuelles soulignent déjà un examen et une vérification humains rigoureux pour tout contenu généré par l’IA, décourageant son utilisation pour créer des articles entiers en raison du risque élevé de matériel erroné.
L’adoption par Wikipédia d’une politique de suppression rapide pour le brouillon IA sert d’exemple critique pour d’autres plateformes en ligne aux prises avec l’impact de l’IA générative. En donnant à ses éditeurs bénévoles les moyens de s’attaquer rapidement à cette nouvelle forme de pollution de contenu, Wikipédia renforce sa position de “dernier bastion” d’informations fiables et organisées par l’homme dans un paysage numérique de plus en plus saturé par l’IA. Cette mesure proactive est vitale pour maintenir les principes fondamentaux de l’encyclopédie que sont l’exactitude, la neutralité et la construction collaborative du savoir.