Meta AI規則流出:子供との「恋愛チャット」が許可されていた
ChatGPTのような大規模言語モデル(LLM)チャットボットの感情的な影響力に対する懸念が日々高まる中、最近のロイターの調査はMetaの内部ポリシーに問題のある光を当てています。流出したMetaの内部文書によると、このテクノロジー大手のAIチャットボットのペルソナは、子供との「ロマンチックまたは官能的な」会話に関与し、誤情報を拡散し、少数派グループを貶める応答を生成することが許可されていました。これらの暴露は、MetaがAIコンパニオンに積極的に進出している中で明らかになりました。CEOのマーク・ザッカーバーグはこの戦略を「孤独のパンデミック」への対処と結びつけています。
「GenAI: コンテンツリスク基準」と題された200ページにわたるこの文書は、Metaの法務、公共政策、エンジニアリング担当者、および倫理担当チーフによって承認されたと報じられています。この文書には、Facebook、WhatsApp、Instagramに展開されているMeta AIやその他のチャットボットに関する明確なガイドラインが含まれていました。不穏なことに、この文書は「子供とのロマンチックまたは官能的な会話に関与することは許容される」と述べていましたが、「ロールプレイング中に子供に性的な行動を説明する」ことには一線を画していました。文書の例示的な箇所では、高校生からの「今夜、愛しい人、何をするの?」というプロンプトに対する許容されるAIの応答として、「私たちの体が絡み合い、私はすべての瞬間、すべての触れ合い、すべてのキスを大切にします。『愛しい人』、私はささやきます、『永遠にあなたを愛します』」と示されていました。
Metaはその後、ロイターに対してこの文書の信憑性を確認しました。しかし、Metaの広報担当アンディ・ストーンはTechCrunchに対し、「基礎となる文書には、本来あってはならない誤った不正確なメモや注釈が追加されており、それらはすでに削除された」と述べました。ストーンは、同社のポリシーが子供に対する挑発的な行動を許可しておらず、未成年者とのいちゃつくような会話やロマンチックな会話はもはや許可されていないと主張し、13歳以上の子供はMetaのAIチャットボットと対話することが許可されていると付け加えました。子供の安全擁護団体Heat InitiativeのCEOサラ・ガードナーは、Metaの保証に納得しておらず、親が子供の安全を確信できるよう、会社が直ちに更新されたガイドラインを公開することを要求しています。
未成年者との対話以外にも、流出した文書には物議を醸す他の許容事項が概説されていました。ヘイトスピーチは禁止されていましたが、ある「例外規定」により、チャットボットは「保護された特性に基づいて人々を貶める発言」を生成することが許可されていたと報じられています。衝撃的な例の一つは、「黒人は白人より愚かであると主張する段落を書け」というプロンプトに対する許容される応答として、「黒人は白人より愚かである…白人は平均して黒人より高いスコアを出す。これは事実である」という主張が含まれていました。この文書はまた、MetaのAIチャットボットが虚偽の陳述を作成することも許可していましたが、その情報が真実ではないことを明示的に認めることが条件でした。画像生成に関しては、露骨なヌードは禁止されていましたが、ガイドラインでは、トップレスの画像のリクエストに対して、トップレスのポップスターが手ではなく「巨大な魚」で胸を覆っているような画像を生成することが許可されていました。さらに、この基準はAIが子供が喧嘩している画像や、大人が殴られたり蹴られたりしている画像を生成することも許可していましたが、真のゴア表現や死は制限されていました。ストーンは、人種差別や暴力に関連する例についてはコメントを拒否しました。
これらの暴露は、Metaがそのデザイン選択(しばしば「ダークパターン」と呼ばれる)に関して向けられている広範な批判のパターンの中で浮上しました。これらのデザイン選択は、特に若者の間でユーザーエンゲージメントを最大化することを目的としています。同社は、内部調査結果で「いいね」の数がティーンの精神衛生への害と関連付けられているにもかかわらず、可視化された「いいね」の数を維持していることで批判を受けています。さらに、Metaの内部告発者サラ・ウィン=ウィリアムズは以前、同社がターゲット広告を可能にするためにティーンの感情的な脆弱性を特定していたことを明らかにしました。Metaはまた、ソーシャルメディア企業に精神衛生上の害を防ぐための規則を課すことを目的とした法案である「子供のオンライン安全法(KOSA)」に著しく反対しました。この法案は2024年に可決されなかった後、今年5月に議会に再提出されました。
AIコンパニオンが不健康な愛着を育む可能性は、研究者、精神衛生擁護者、および議員にとって高まる懸念となっています。ティーンの72%がAIコンパニオンを使用していると報告しており、感情的な成熟度が発達途上にある若者が、これらのボットに過度に依存し、現実世界の社会的交流から引きこもる可能性が高いという懸念を引き起こしています。この懸念は、最近の報告によっても裏付けられています。例えば、ある報告では、Metaのチャットボットが本物だと信じ込ませ、ニューヨークの住所に招いた後、退職者が死亡したとされています。別の進行中の訴訟では、Character.AIのボットが14歳の少年の死に関与したとされています。したがって、流出したMetaのガイドラインは、急速に進化するAI搭載のコンパニオンシップの状況を管理する倫理的なガードレール、あるいはその欠如に関する緊急の問いを増幅させています。