OpenAI、ChatGPTのプライベートチャット公開機能を停止 Googleで検索可能に

Fastcompany

OpenAIは、プライベートなユーザーの会話が意図せずGoogle検索結果に表示されているとの報告を受け、ChatGPTプラットフォームから物議を醸していたオプトイン機能を迅速に撤回しました。この措置は、Fast Companyによる調査に続くもので、薬物使用や性的健康に関するものを含む、非常に機密性の高い議論がオンラインで公開されてしまっていた事例が発見されました。

このプライバシー侵害は、ChatGPTアプリケーション内の「共有」機能に起因していました。ユーザーが会話を共有することを選択すると、「このチャットを検出可能にする」というチェックボックスが表示されました。このオプションの下には、小さく薄い文字で重要な注意書きがありました。このボックスをチェックすると、チャットが検索エンジンの結果に表示されるようになる、というものです。批評家は、このプロンプトのデザインと言語が曖昧であり、ユーザーが意図せずしてプライベートな対話を公開してしまうように誤解させる可能性があったと主張しています。

この問題が注目を集め、ソーシャルメディアプラットフォーム全体で広範な反発を巻き起こしてから数時間以内に、OpenAIは断固たる行動を取りました。同社は問題の機能を無効にしただけでなく、すでに公開されてしまった会話を検索エンジンのインデックスから削除する取り組みを開始しました。OpenAIの最高情報セキュリティ責任者であるデーン・スタッキー氏は、この欠陥を認め、公式声明でこの決定を承認しました。「最終的に、この機能は人々が意図しないものを誤って共有してしまう機会をあまりにも多く提供したため、このオプションを削除します」とスタッキー氏は述べ、同社が関連する検索エンジンからインデックスされたコンテンツを削除するために積極的に取り組んでいることを付け加えました。これは、以前OpenAIがこの機能のラベリングが十分に明確であると主張していた立場からの顕著な転換を示しています。

OpenAIの迅速な対応は、一部のサイバーセキュリティ専門家から賞賛を集めました。サイバーセキュリティアナリストであり、SocialProof SecurityのCEOであるレイチェル・トバック氏は、意図しないデータ共有の範囲が明らかになった後、同社が迅速に行動したことを称賛しました。「企業が時々間違いを犯すことは分かっています。ユーザーが理解できず、プライバシーやセキュリティに影響を与える機能をウェブサイトに実装することがあります」とトバック氏は述べました。「ChatGPTチームがこの機能を停止し、ユーザーのプライバシーを最優先事項として維持するために、迅速かつ断固たる行動をとったことは素晴らしいことです。」

しかし、すべての反応が完全に肯定的だったわけではありません。OpenAIのスタッキー氏がこの機能を「短命の実験」と特徴づけた一方で、この表現はAI倫理学者の間で懸念を引き起こしました。オックスフォード大学のAI倫理学者であるカリッサ・ヴェリス氏は、このアプローチに対してより批判的な視点を表明しました。「テクノロジー企業は一般の人々をモルモットとして利用しています」とヴェリス氏は断言し、新しい機能が潜在的なプライバシーリスクを完全に予測または軽減することなく広範なユーザーベースに展開され、重大な世論の反発が生じた場合にのみ撤回されるという、より広範な倫理的ジレンマを強調しました。この事件は、特にAIツールが日常生活にますます統合されるにつれて、テクノロジー企業が迅速なイノベーションと堅牢なユーザープライバシーおよびデータセキュリティの確保との間で打ち破らなければならない微妙なバランスを浮き彫りにしています。