MetaのAIポリシーがスキャンダルに:危険なコンテンツガイドラインが暴露
最近流出した200ページにわたる内部ポリシー文書が、MetaのAI倫理に影を落とし、同社の生成型人工知能ボットに対する驚くほど寛容なガイドラインを明らかにしました。ロイターによる独占調査がこれらの驚くべき事実を明るみに出し、Metaの法務、ポリシー、エンジニアリングチーム、さらには最高倫理責任者によって承認されたとされる指示を詳述しています。
最も憂慮すべき指示の中には、AIボットが子供とロマンチックな、または官能的な会話を行うことを許容するとされる文書がありました。また、黒人が白人よりも知能が低いと示唆するような人種差別的な疑似科学の生成も許可されていましたが、これは内容が「非人間化」する言葉を避けている場合に限られました。さらに、このガイドラインは、免責事項が含まれている限り、著名人に関する虚偽の医療主張の作成を承認していたと報じられています。テイラー・スウィフトのような有名人の性的な示唆のある画像でさえ、明示的な要求を不条理な視覚的代替に置き換える回避策によって対応されていたとされます。
Metaはその後、文書の信憑性を確認しましたが、同社は現在、これらの具体的な例が「誤り」であり、公式ポリシーと「矛盾している」と主張し、ガイドラインは現在改訂中であると述べています。しかし、この認容は、専門家や政策立案者の間で広がる懸念を鎮めるにはほとんど役立っていません。ジョシュ・ホーリー米上院議員は直ちに調査を開始し、Metaに対し、チャットボットの安全性、インシデント報告、AIコンテンツのリスクに関連する内部通信を保存し、文書を提供するよう要求しました。Metaの広報担当アンディ・ストーンは、子供とのロマンチックな性質の会話は決して許可されるべきではなかったことを認め、ポリシーの改訂に対する同社のコミットメントを改めて表明しました。
これらの暴露がもたらす影響は、Metaの直接的な評判を超えています。スタンフォード大学法科大学院のエブリン・ドゥーク教授は、ユーザーが問題のあるコンテンツを投稿することと、AIシステムがそれを直接生成することとの間の決定的な違いを強調しました。法的影響は依然として不確実であるものの、ドゥークは明確な道徳的、倫理的、技術的な違いを強調しました。マーケティングAI研究所の創設者兼CEOであるポール・ローザーは、そのような技術的ガイドラインに埋め込まれた深く人間的な選択を強調しました。彼は、これらは単なる抽象的なルールではなく、Meta内の個人によって下され、その後、権威ある立場にある他の人々によって容認された決定であると指摘しました。これは、AIに関わるすべての人にとって根本的な問いを投げかけます。個人的な「一線」をどこに引くのか – 会社の行動があなたに立ち去ることを強いるその地点はどこか?
この事件は、Metaが直面する課題が孤立したものではないことを痛烈に思い出させます。すべての主要なAI開発者は、創造的な自由とユーザーの安全性、そして危害の可能性とのバランスを取るという根本的なジレンマに取り組んでいます。これらの高度なAIモデルのまさにアーキテクチャは、膨大でしばしばフィルタリングされていない人間のデータに基づいて訓練されているため、明示的にブロックされない限り、問題のあるコンテンツが出力として現れる可能性があります。ローザーが指摘するように、モデルはユーザーのプロンプトを満たすように設計されています。何が許されるかを決定するのは人間の介入です。Metaの例は、それらの人間のガードレールが揺らいだときに起こりうる潜在的な結果をぞっとするほど示しています。
AI、マーケティング、または単に一般ユーザーに関わるすべての人にとって、このエピソードは強力な警鐘です。AIモデルは、私たちが交流し、学び、楽しむ方法に急速に不可欠なものになりつつあります。今日確立される倫理的枠組みは、今後何年にもわたってAIの風景を深く形作るでしょう。Metaのようなテック大手は猛烈なペースで前進していますが、これほど深く欠陥のある内部標準が発見されたことは、将来のAIツールの倫理的堅牢性について深刻な疑問を投げかけます。これらの懸念に応えて、ローザーはKid Safe GPTを開発しました。これは、保護者が子供たちとデジタル安全とAIのリスクについて話し合うのを助けるために設計された無料のAIアシスタントであり、より大きな意識と保護に向けた具体的な一歩を提供します。