OpenAI retire l'option de "self-doxing" de ChatGPT pour la vie privée
OpenAI a rapidement supprimé une fonctionnalité de ChatGPT qui permettait aux utilisateurs de rendre leurs conversations découvrables par les moteurs de recherche, invoquant des préoccupations concernant l’exposition accidentelle d’informations personnelles sensibles. L’option de “self-doxing”, qui a été discrètement déployée plus tôt cette année, permettait aux utilisateurs de cocher une case pour “partager avec les moteurs de recherche” lors de la création d’un lien public vers un chat.
La décision de supprimer cette fonctionnalité intervient après des rapports selon lesquels des milliers de conversations privées de ChatGPT, certaines contenant des détails très personnels et identifiants, ont été involontairement indexées par des moteurs de recherche comme Google. Une enquête de Fast Company aurait trouvé plus de 4 500 conversations indexées de ce type, allant de questions-réponses inoffensives à des discussions contenant des noms, des lieux et d’autres informations sensibles. Dane Stuckey, responsable de la sécurité de l’information chez OpenAI, a annoncé ce changement sur X (anciennement Twitter), décrivant la fonctionnalité comme une “expérience de courte durée pour aider les gens à découvrir des conversations utiles”.
Stuckey a reconnu que la fonctionnalité “introduisait trop d’opportunités pour que les gens partagent accidentellement des choses qu’ils n’avaient pas l’intention de partager”, ce qui a conduit à son retrait. Bien que la fonctionnalité fût opt-in et exigeait que les utilisateurs choisissent explicitement de rendre leurs chats découvrables, de nombreux utilisateurs qui avaient l’intention de partager des exemples avec des amis ou des collègues les ont rendus publiquement accessibles par inadvertance.
OpenAI travaille maintenant activement avec les principaux fournisseurs de recherche pour purger les conversations déjà indexées afin de limiter une exposition supplémentaire. Cet incident souligne le défi continu de concilier l’ouverture et la vie privée des utilisateurs dans le paysage en évolution rapide des outils d’IA. Même avec des avertissements explicites, la facilité d’exposer accidentellement des données sensibles souligne la nécessité de garanties de confidentialité robustes dans les plateformes d’IA, d’autant plus que les utilisateurs confient de plus en plus d’informations personnelles et professionnelles aux chatbots.
La société souligne que si les liens partagés n’incluent pas le nom ou les détails du compte de l’utilisateur, toute phrase ou nom spécifique inclus dans le chat lui-même pourrait rendre le contenu identifiable et recherchable. Il est conseillé aux utilisateurs qui ont précédemment partagé des conversations ChatGPT de vérifier leur tableau de bord “Liens partagés” dans les paramètres de ChatGPT et de supprimer tout lien qu’ils souhaitent garder privé.