Wikipedia führt "Schnelllöschung" für KI-Müll-Artikel ein

404media

Wikipedia, die weltweit größte Online-Enzyklopädie, hat eine neue „Schnelllöschungs“-Richtlinie implementiert, die speziell auf Artikel abzielt, die von künstlicher Intelligenz generiert wurden und oft als „KI-Müll“ bezeichnet werden. Diese von ihrer Gemeinschaft ehrenamtlicher Editoren verabschiedete entschlossene Maßnahme unterstreicht eine wachsende Besorgnis über die Verbreitung minderwertiger, KI-generierter Inhalte und die potenzielle Bedrohung, die sie für das langjährige Engagement der Plattform für Genauigkeit und von Menschen geprüfte Informationen darstellt.

Der Schritt ist eine direkte Antwort auf die Herausforderung, die generative KI darstellt: die Fähigkeit, schnell große Mengen potenziell gefälschter Inhalte zu produzieren. Wie ein Editor betonte: „Die Fähigkeit, schnell viele gefälschte Inhalte zu generieren, ist problematisch, wenn wir keine Möglichkeit haben, sie genauso schnell zu löschen.“ Diese neue Richtlinie ermächtigt Administratoren, KI-generierte Artikel, die bestimmte Kriterien erfüllen, schnell zu entfernen, wodurch die typischerweise längeren Löschdiskussionsprozesse umgangen werden.

Diese Entwicklung ist kein Einzelfall, sondern Teil eines breiteren, anhaltenden Kampfes innerhalb der Wikipedia-Gemeinschaft, ihre Integrität im Zeitalter fortschrittlicher KI zu wahren. Erst kürzlich, im Juni 2025, sah sich die Wikimedia Foundation, die gemeinnützige Organisation hinter Wikipedia, gezwungen, einen umstrittenen Test von KI-generierten Artikelzusammenfassungen zu pausieren. Das Experiment, das ein Open-Weight-KI-Modell namens Aya von Cohere verwendete, stieß bei den Editoren auf eine überwältigende negative Reaktion. Kritiker äußerten starke Bedenken, dass KI-Zusammenfassungen die Kernwerte Wikipedias untergraben könnten, indem sie kollaborative Genauigkeit durch unbestätigte, zentralisierte Ausgaben ersetzen und den Ruf der Website für Neutralität und Glaubwürdigkeit gefährden. Sie verwiesen auf jüngste KI-Fehler anderer Tech-Giganten als mahnende Beispiele und betonten das Potenzial für „Halluzinationen“ – fabrizierte Informationen, die als Fakten präsentiert werden –, die die Vertrauenswürdigkeit Wikipedias beeinträchtigen könnten.

Der Begriff „KI-Müll“ (AI slop) selbst ist entstanden, um diesen Zustrom minderwertiger, maschinengenerierter Medien zu beschreiben, die durch einen deutlichen Mangel an menschlichem Aufwand und ein überwältigendes Volumen gekennzeichnet sind. Er wird abfällig als „digitaler Datenmüll“, „Füllmaterial, das Geschwindigkeit und Quantität über Substanz und Qualität stellt“, oder „schlampiger oder unerwünschter KI-Inhalt“ definiert, der Geschwindigkeit über Substanz priorisiert.

Um dieser Flut entgegenzuwirken, hat sich eine engagierte Gruppe von Editoren zum „WikiProjekt KI-Bereinigung“ zusammengeschlossen, einer kollaborativen Anstrengung, die darauf abzielt, unbelegte und schlecht geschriebene KI-generierte Inhalte zu identifizieren und zu beseitigen. Diese Editoren sind geschickt darin geworden, gängige KI-Muster, Prosastile und verräterische Phrasen wie „als KI-Sprachmodell, ich…“ zu erkennen. Die Aufgabe bleibt jedoch herausfordernd, da hochentwickelte KI subtile Fehler oder regelrechte Fälschungen, wie eine nicht existierende „hölzerne osmanische Festung“, in scheinbar plausible Texte einweben kann. Untersuchungen vom Oktober 2024 zeigten bereits einen signifikanten Anstieg, wobei über 5 % der im August 2024 neu erstellten englischen Wikipedia-Artikel als KI-generiert markiert wurden und oft eine geringere Qualität, Werbeverzerrungen oder spezifische Standpunkte aufwiesen.

Während die Wikimedia Foundation weiterhin das Potenzial von KI zur Verbesserung der Zugänglichkeit erforscht, stellt sie klar fest, dass jede zukünftige Implementierung die direkte Beteiligung der Gemeinschaft erfordern muss. Die vorherrschende Stimmung unter den Editoren ist, dass menschliches Engagement der „wesentlichste Baustein“ des Wikipedia-Wissensökosystems bleibt, wobei KI nur als Erweiterungswerkzeug dient und nicht als Ersatz. Aktuelle Richtlinien betonen bereits eine rigorose menschliche Prüfung und Verifizierung für alle KI-generierten Inhalte und raten von deren Verwendung zur Erstellung ganzer Artikel ab, da das Risiko fehlerhaften Materials hoch ist.

Die Einführung einer Schnelllöschungsrichtlinie für KI-Müll durch Wikipedia dient als kritisches Beispiel für andere Online-Plattformen, die mit den Auswirkungen generativer KI zu kämpfen haben. Indem Wikipedia seine ehrenamtlichen Editoren befähigt, diese neue Form der Inhaltsverschmutzung schnell zu bekämpfen, stärkt es seine Position als „letztes Bollwerk“ menschlich kuratierter, zuverlässiger Informationen in einer zunehmend KI-gesättigten digitalen Landschaft. Diese proaktive Maßnahme ist entscheidend, um die Kernprinzipien der Enzyklopädie – Genauigkeit, Neutralität und kollaborative Wissensbildung – aufrechtzuerhalten.