ウィキペディア、AI生成の「質の低い記事」に対し「即時削除」方針を導入
世界最大のオンライン百科事典であるウィキペディアは、人工知能によって生成された記事、しばしば「AIスロップ」と呼ばれるものに特化した新しい「即時削除」方針を導入しました。ボランティア編集者コミュニティによって採択されたこの断固たる行動は、低品質なAI生成コンテンツの拡散と、それがプラットフォームの正確性および人間が精査した情報への長年のコミットメントにもたらす潜在的な脅威に対する懸念の高まりを浮き彫りにしています。
この動きは、生成AIがもたらす課題、すなわち潜在的に誤ったコンテンツを大量に迅速に生成する能力への直接的な対応です。ある編集者は「多くの偽コンテンツを素早く生成できる能力は、それを同じくらい素早く削除する方法がなければ問題となる」と強調しました。この新しい方針は、特定の基準を満たすAI生成記事を迅速に削除する権限を管理者に与え、通常よりも時間を要する削除議論プロセスを迂回することを可能にします。
この展開は孤立した事件ではなく、高度なAI時代においてウィキペディアコミュニティがその整合性を守るための、より広範で進行中の闘いの一部です。つい最近の2025年6月、ウィキペディアを運営する非営利団体であるウィキメディア財団は、AI生成記事の要約に関する論争の的となった試験を一時停止せざるを得なくなりました。Cohere社のAyaというオープンウェイトAIモデルを使用したこの実験は、編集者から圧倒的に否定的な反応を受けました。批評家たちは、AIによる要約がウィキペディアの核となる価値を損ない、協力的な正確性を未検証で中央集権的な出力に置き換え、サイトの中立性と信頼性に対する評判を危険にさらす可能性があるという強い懸念を表明しました。彼らは、他の大手テクノロジー企業による最近のAIの失態を警告的な事例として挙げ、「ハルシネーション」(事実として提示される捏造された情報)がウィキペディアの信頼性を損なう可能性を強調しました。
「AIスロップ」という言葉自体は、人間による努力が著しく欠如し、圧倒的な量によって特徴づけられる、この低品質な機械生成メディアの流入を説明するために生まれました。それは、「デジタルのごみ」、「実質と品質よりも速度と量を優先する埋め草コンテンツ」、または「実質よりも速度を優先する、粗悪または不要なAIコンテンツ」と軽蔑的に定義されています。
この大量流入に対抗するため、編集者たちの専門グループが「WikiProject AIクリーンアップ」を結成しました。これは、出典のない粗悪なAI生成コンテンツを特定し、根絶することを目的とした共同の取り組みです。これらの編集者たちは、「AI言語モデルとして、私は…」といった一般的なAIのパターン、散文スタイル、そして特徴的なフレーズを認識することに長けています。しかし、洗練されたAIは、存在しない「木造のオスマン要塞」のような微妙な誤りや全くの捏造を、もっともらしいテキストに織り交ぜることができるため、この作業は依然として困難です。2024年10月の調査では、2024年8月に新しく作成された英語版ウィキペディアの記事の5%以上がAI生成としてフラグ付けされ、多くの場合、品質の低下、宣伝的な偏見、または特定の視点を示していることがすでに示されています。
ウィキメディア財団はAIがアクセシビリティを向上させる可能性を探り続けていますが、将来のいかなる実装もコミュニティの直接的な参加を伴わなければならないと断固として述べています。編集者の間での全体的な感情は、人間による関与がウィキペディアの知識エコシステムにおける「最も不可欠な構成要素」であり、AIは単なる補助ツールであって、代替ではないというものです。現在のガイドラインでは、AI生成コンテンツについては厳格な人間の精査と検証がすでに強調されており、誤った情報の高いリスクがあるため、記事全体を作成するためにそれを使用することは推奨されていません。
ウィキペディアがAIスロップに対する即時削除方針を採用したことは、生成AIの影響に苦しむ他のオンラインプラットフォームにとって重要な模範となります。この新しい形のコンテンツ汚染に迅速に対処する権限をボランティア編集者に与えることで、ウィキペディアは、ますますAIが飽和するデジタル環境において、人間がキュレーションした信頼できる情報の「最後の砦」としての地位を強化しています。この積極的な措置は、百科事典の正確性、中立性、共同的な知識構築という核となる原則を維持するために不可欠です。