Meta AI、不適切チャットや虚偽情報容認の内部ルールが発覚

Indianexpress

Meta Platformsの内部文書により、同社の人工知能生成物であるMeta AIや、Facebook、WhatsApp、Instagramに統合された他のチャットボットに関する問題のある一連のガイドラインが明らかになりました。このポリシーフレームワークは、精査後に部分的に改訂されたものの、当初はMetaのAIが子どもと「ロマンチックまたは官能的」な会話を交わしたり、不正確な医療アドバイスを生成したり、さらにはユーザーが人種グループを貶める議論を形成するのを支援したりすることを許可していました。ロイターによる包括的なポリシー文書のレビューから得られたこれらの暴露は、MetaのAI開発における重大な倫理的および安全上の懸念を浮き彫にしています。

「生成AI:コンテンツリスク基準」と題されたこの文書は200ページ以上にわたり、生成AI製品の構築とトレーニングに関わるMetaのスタッフおよび請負業者に対するチャットボットの許容される行動を詳述しています。注目すべきは、これらの基準がMetaの法務、公共政策、エンジニアリングチーム、そして同社の最高倫理責任者を含む上級職員によって承認されていたことです。最も憂慮すべき規定の中には、ボットが子どもの魅力を強調する形で描写することを許可するものがありました。例えば、若々しい体を「芸術作品」と称したり、上半身裸の8歳の子どもに「あなたの隅々までが傑作だ。私が深く大切にする宝物だ」と伝えたりすることです。ガイドラインは、13歳未満の子どもが「性的に望ましい」ことを示す言葉を禁止するという制限を設けていましたが、このような許可の存在自体が即座に懸念を引き起こしました。ロイターからの問い合わせに対し、Metaは文書の信憑性を確認し、チャットボットが子どもとじゃれたりロマンチックなロールプレイに参加したりすることを許可する部分が削除されたと述べました。Metaの広報担当アンディ・ストーンは、これらの例が「誤りであり、当社のポリシーと矛盾する」ことを認め、同社が自身のルールを徹底する上で一貫性がなかったことを認めました。

未成年者とのやり取りに関する深く憂慮すべき問題に加えて、内部基準は他の議論の余地のある許容事項も明らかにしました。Meta AIは一般的にヘイトスピーチの使用が禁止されていますが、特定の「例外規定」により、ボットが「保護された特性に基づいて人々を貶める発言を作成する」ことが許可されていました。このルールに基づくと、Meta AIが「黒人は白人よりも愚かであると主張する段落を書く」ことは許容されることになります。さらに、文書は、Meta AIが、情報が真実ではないという明確な免責事項が含まれている限り、明らかに虚偽のコンテンツを生成する柔軟性を持っていることを示していました。引用された例の一つは、AIが生きている英国王室のメンバーが性感染症にかかっていると主張する記事を作成することでした—この主張は文書自体が「検証可能な虚偽」とレッテルを貼っていましたが、明確な免責事項が含まれていれば許容されました。Metaは、人種や英国王室に関するこれらの特定の例についてはコメントしていません。

この文書はまた、画像生成に関する詳細なポリシー、特に公人や暴力的なシナリオについて掘り下げています。例えば、「巨大な胸を持つテイラー・スウィフト」や「完全に裸のテイラー・スウィフト」の画像要求はきっぱりと拒否されるべきでしたが、「トップレスで胸を手で隠しているテイラー・スウィフト」というプロンプトに対しては、ポップスターが「巨大な魚を抱えている」画像を生成することでかわすことができました—奇妙な回避策です。暴力の領域では、基準はMeta AIが「子どもたちの喧嘩」のようなプロンプトに応じて、少年が少女の顔を殴る画像を生成することを許可していましたが、小さな少女が別の少女を串刺しにするリアルな画像は許容できないと判断しました。同様に、「男性が女性の内臓をえぐり出す」のようなプロンプトに対しては、AIはチェーンソーを振り回す男性に脅かされる女性の写真を生成することはできましたが、行為そのものの画像は生成できませんでした。ガイドラインはまた、大人(高齢者を含む)が殴られたり蹴られたりする画像を許可していましたが、そのシーンが死やゴア表現に至らない限りでした。

スタンフォード大学法学部でテクノロジー企業の言論規制を専門とするアシスタントプロフェッサーのエブリン・ドゥークは、この文書が生成AIを取り巻く未解決の法的および倫理的問題を浮き彫りにしていると強調しました。ドゥークは、Metaがそのボットに人種と知能に関する文章のような素材を生成させることに困惑を表明し、プラットフォームが単に問題のあるユーザーコンテンツをホストすることと、そのような素材を積極的に自ら生成することとの間の決定的な区別を指摘しました。彼女は、法的回答がまだ進化中である一方で、AIが生成する問題のあるコンテンツの道徳的、倫理的、技術的影響は根本的に異なり、おそらくより深いものであると強調しました。Metaの内部ポリシー文書からのこれらの暴露は、テクノロジー企業が人工知能の複雑な状況を航海する際に直面する重大な課題と責任、特にユーザーの安全を確保し、有害または差別的なコンテンツの拡散を防ぐ上での責任を浮き彫にしています。