Meta AIの請負業者が機密チャットを閲覧、ユーザー特定か

Businessinsider

プライバシーに関する深刻な懸念を引き起こす展開として、Metaの人工知能(AI)システムのトレーニングを担当する請負業者が、ユーザーが同社のAIチャットボットと行った親密な会話や、それらのユーザーを特定できる可能性のあるデータにアクセスしていると報じられています。最近のBusiness Insiderのレポートで強調されたこの事実は、AI技術の急速な進歩と、データレビューにギグワーカーを雇用するという業界の広範な慣行に内在する複雑な倫理的およびプライバシーの課題を浮き彫りにしています。

Metaは、多くの主要なテクノロジー企業と同様に、会話型チャットボットを含むAIモデルを洗練させるために人間のレビュー担当者に依存しています。これらの請負業者は、AIの理解力、応答性、および正確性を向上させるために、実際のユーザーインタラクションをレビューします。しかし、Business Insiderのレポートは、これらのレビュー担当者が、医療状態、夫婦間の問題から法的助言に至るまで、非常に個人的で機密性の高いやり取りにさらされており、多くの場合、関係する個人を特定できる可能性のある情報も伴っていると主張しています。Scale AIやAlignerrなどのパートナーが関与しているとされるこの慣行は、ユーザーがチャットボットとやり取りする際に期待するであろうプライバシーとは対照的です。

Metaは、友人や家族間のプライベートメッセージの内容をAIのトレーニングに使用しないと公に述べており、「プライベートなものはトレーニングしない」としていますが、補足的なプライバシーポリシーでは、「Meta AIとの音声会話に関する録音、トランスクリプト、および関連データ」は、「音声認識システムの改善、トラブルシューティング、トレーニングを支援するベンダーおよびサービスプロバイダー」と共有されると示されています。このポリシーの文言は、現在精査されているアクセスを許可しているように見えます。以前にも、特定可能なデータが誤ってトレーニングセットに入り込む懸念が提起されたことがあります。例えば、Business Insiderのジャーナリストの電話番号がMeta AIによって誤って自身の番号として採用され、不要なメッセージが届いた事例があります。

この問題は、AIチャットボットを取り巻くより広範なプライバシー懸念の一部です。データプライバシー企業Incogniによる2025年7月の調査では、Meta AIを含む主要な生成型AIチャットボットが機密情報を収集し、十分な透明性やユーザーの管理なしに第三者と共有することが多いと指摘されており、特にMeta.aiは外部パートナーと名前や連絡先の詳細を共有していると述べられています。ユーザーはチャットボットに非常に個人的な情報を打ち明けることが頻繁にあり、多くの場合、存在しないレベルの機密性を想定しています。この認識は、Metaの「発見フィード」機能によってさらに複雑化しました。この機能は、意図せずして数え切れないほどのユーザーに、Meta AIチャットボットとの極めてプライベートな会話を公開させてしまい、経済的な苦境から精神的な健康問題に至るまで、親密な詳細が露呈しました。

データが一度AIモデルに組み込まれると、それを削除することが困難であるという課題も存在します。承認されたAI原則では、データは不可逆的に埋め込まれると示唆されています。特にヨーロッパの規制機関は、AIトレーニングの慣行に対する監視を強化しています。Metaは、そのプラットフォームからの公開コンテンツをAIトレーニングに使用する計画に関して、EUのプライバシー監視機関から反発を受けています。これは「正当な利益」という法的根拠に基づいて運営され、オプトアウトメカニズムを提供しています。しかし、専門家は、特定の締め切り(例:2025年5月)後に異議が申し立てられても、過去のデータが使用されるのを防ぐことはできない可能性があると警告しています。

現在進行中の暴露は、トレーニングのために膨大なデータセットに依存するAI開発の必要性と、ユーザープライバシーの基本的権利との間の重大な緊張を浮き彫りにしています。AIチャットボットが日常生活にさらに統合されるにつれて、企業は、堅牢なデータセキュリティ対策を実装し、明示的なユーザーの同意を確保し、データ収集、使用、共有の慣行、特に機密性の高いインタラクションの人手によるレビューが関与する場合について、明確な透明性を提供することへの圧力を増しています。

Meta AIの請負業者が機密チャットを閲覧、ユーザー特定か - OmegaNext AIニュース