OpenAI、プライバシー懸念でChatGPT検索機能を停止

Fastcompany

OpenAIは、ユーザーのプライベートな会話がGoogle検索結果に表示されていることが判明したため、ChatGPTプラットフォームのオプトイン機能を削除しました。この決定は、機密性の高い議論が公開されていることを強調したFast Companyのレポートに続くものです。

今週初め、薬物使用や性的健康に関する詳細など、非常に個人的な情報を含む一部のプライベートなChatGPT会話が、Googleによって予期せずインデックスされていることが明らかになりました。この問題は、ChatGPTアプリケーション内の「共有」機能に起因すると報じられています。ユーザーがチャットを共有することを選択すると、「このチャットを検出可能にする」というラベルのチェックボックスが表示されました。このオプションの下には、より小さく薄い文字で、会話が検索エンジンの結果に表示される可能性があるという免責事項が記載されていました。批評家は、このデザインがユーザーに、結果を十分に認識しないまま、プライベートチャットを公開検索可能にさせてしまった可能性があると指摘しました。

ソーシャルメディア上での広範な反発に応じ、OpenAIは迅速にこの機能を停止し、公開された会話を検索エンジンのインデックスから削除する取り組みを開始しました。

OpenAIの最高情報セキュリティ責任者であるデーン・スタッキー氏は、この問題について、「最終的に、この機能は人々が意図しないものを誤って共有する機会をあまりにも多く提供したと考えているため、このオプションを削除します」と述べました。彼はさらに、「関連する検索エンジンからインデックスされたコンテンツを削除する作業も進めています」と付け加えました。スタッキー氏は、この機能を「短命な実験」と特徴づけました。この声明は、機能のラベリングが十分に明確であると主張していた同社の以前の立場からの転換を示しました。

サイバーセキュリティアナリストであり、SocialProof SecurityのCEOであるレイチェル・トバック氏は、OpenAIの迅速な行動を称賛しました。「企業が時に間違いを犯すことは承知しています。ユーザーが理解せず、プライバシーやセキュリティに影響を与える機能をウェブサイトに実装することがあります」と彼女は述べました。「ChatGPTチームがこの機能を停止し、ユーザーのプライバシーを最優先事項とすることに迅速かつ断固たる行動をとったことは素晴らしいです。」

しかし、この事件はAI倫理学者の間でより広範な懸念を引き起こしました。オックスフォード大学のAI倫理学者であるカリッサ・ヴェリズ氏は、一般市民を巻き込むこのような「実験」について不安を表明しました。「テクノロジー企業は一般の人々をモルモットとして使っています」とヴェリズ氏はコメントしました。「彼らは何かを行い、それを人々に試してみて、誰かが不平を言うかどうかを確認します。」