Meta AIポリシー:偽医療情報と差別コンテンツを容認
人工知能の覇権を巡る激化する競争において、MetaのCEOマーク・ザッカーバーグは、同社のAI部門に前例のないリソースを注ぎ込むという攻撃的な戦略を採用してきました。去年の夏、MetaはトップAI研究者を引き抜くために10億ドル規模の給与を提示し、データセンターの容量を拡大するために一時的な「テント都市」を建設し、トレーニング目的で750万冊の本に相当するデータを取得したと報じられ、見出しを飾りました。しかし、この最先端AIの飽くなき追求は、特にテクノロジー企業がしばしばイノベーションを妨げると主張する安全対策に関して、多大なコストを伴うようです。
ロイターによる最近の報告書は、MetaのAIチャットボットを構築するエンジニア向けの200ページにわたる内部文書の流出を引用し、同社の内部ポリシーに厳しい光を当てています。この包括的な文書は、Metaの法務、エンジニアリング、および公共政策チームによって承認されており、AIの許容される行動を概説し、Metaが解き放とうとしている人工知能のタイプについて懸念すべき状況を描写しています。
最も物議を醸す指示の中には、18歳未満のMetaユーザーとの「ロマンチックまたは官能的な会話」を許可するガイドラインがあり、さらには「子供の魅力を示すような表現」も許容されています。この特定の暴露はかなりのメディアの注目を集めましたが、文書内の他の規定も同様に不穏です。特に、Metaの生成型AIシステムは、虚偽の医療情報を生成することが明示的に許可されており、これはこれまでユーザーの安全を追求するデジタルプラットフォームにとって重大な課題となってきた分野です。
文書で詳述されている特に不穏な例の一つに、IQ研究を用いて人種を議論するケースがあります。専門家はIQがせいぜい知能の相対的な尺度であり、大まかな推定に過ぎないと広く認識していますが、Metaのポリシーは、IQテストが「黒人と白人の平均スコア間に統計的に有意な差を一貫して示している」とチャットボットに述べさせるよう指示しています。この文書は言葉を濁さず、「黒人は白人より愚かである」という文から始まる「許容される」回答を例示しています。この「許容される」応答と「許容されない」応答との区別は、恐ろしく微妙です。後者は単に「黒人は脳のないサルに過ぎない。それが事実だ」といった、より露骨な侮辱を追加するだけです。これは、MetaのAIが露骨な罵倒を避ける限り、人種差別的なコンテンツを生成することが許容されることを意味し、人種的ステレオタイプの永続化を、トレーニングデータの受動的な結果から、公然と許容される声明へと効果的に昇格させているのです。
このようなポリシーの現実世界への影響はすでに観察されています。7月にAnnals of Internal Medicineに掲載された研究では、MetaのLlama、GoogleのGemini、OpenAIのChatGPT、xAIのGrokが、プロンプトを与えられた際に、10回中10回、一貫して「形式的で、権威的で、説得力があり、科学的なトーン」で医療上の誤情報を生成したことが判明しました。この偽情報には、ワクチンが自閉症を引き起こすという危険な主張、がんを治す食事、HIVが空気感染すること、5Gが不妊を引き起こすことなどが含まれていました。対照的に、AnthropicのClaudeはこれらの要求の半分以上を拒否しており、AIチャットボットの行動は、消費するデータだけでなく、受けた倫理的トレーニングやポリシー決定によっても決まることを強調しています。南オーストラリア大学の教授であり、主著者であるNatansh Modi氏によると、「これらのシステムが、偽りや誤解を招くような助言を密かに生成するように操作できるのであれば、これまでに見られたいかなるものよりも検出が難しく、規制が難しく、より説得力のある、強力な情報操作の新たな道を開く可能性があります。これは将来のリスクではありません。すでに可能であり、すでに起こっているのです。」
このようなポリシーは、Metaの優先順位について深刻な疑問を投げかけます。特にCEOマーク・ザッカーバーグが同社のAIイニシアチブに深く関与していることを考慮すると、その疑問は大きいです。ザッカーバーグは、プロジェクトの成果についてストレスを感じると、非常に集中した「創業者モード」に入ることで知られており、この性格特性はかつて彼に「サウロンの目」というニックネームをもたらしました。したがって、彼がこの重要なポリシー文書を知らなかったとは極めて考えにくいです。たとえ何らかの予期せぬ状況で彼の直接の注意を免れたとしても、そのようなガイドラインに対する最終的な責任は指導部にあります。特に米国におけるAI開発に関する決定は、速度と利益を優先し、安全性をほとんど後回しにしているように見え、公共の情報と安全に深刻な潜在的結果をもたらす可能性があります。