OpenAI retire la fonction de recherche de ChatGPT pour des raisons de confidentialité

Fastcompany

OpenAI a retiré une fonction d’activation volontaire de sa plateforme ChatGPT après la découverte que des conversations privées d’utilisateurs apparaissaient dans les résultats de recherche Google. Cette décision fait suite à un rapport de Fast Company qui a souligné l’accessibilité publique de discussions sensibles.

Plus tôt cette semaine, il a été révélé que des conversations privées de ChatGPT, certaines contenant des informations très personnelles comme des détails sur l’usage de drogues ou la santé sexuelle, avaient été inopinément indexées par Google. Le problème proviendrait de la fonction “Partager” au sein de l’application ChatGPT. Lorsque les utilisateurs choisissaient de partager un chat, une case à cocher intitulée “Rendre ce chat découvrable” leur était présentée. Sous cette option, en texte plus petit et plus clair, une clause de non-responsabilité indiquait que la conversation pourrait alors apparaître dans les résultats des moteurs de recherche. Les critiques ont suggéré que cette conception aurait pu involontairement inciter les utilisateurs à rendre leurs chats privés publiquement recherchables sans pleine conscience des conséquences.

En réponse à l’indignation généralisée sur les réseaux sociaux, OpenAI a rapidement retiré la fonction et a initié des efforts pour supprimer toutes les conversations exposées des index des moteurs de recherche.

Dane Stuckey, responsable de la sécurité de l’information chez OpenAI, a abordé le problème, déclarant : “En fin de compte, nous pensons que cette fonction a introduit trop d’occasions pour les gens de partager accidentellement des choses qu’ils n’avaient pas l’intention de partager, nous supprimons donc l’option.” Il a ajouté : “Nous travaillons également à supprimer le contenu indexé des moteurs de recherche pertinents.” Stuckey a qualifié la fonction d’« expérience de courte durée ». Cette déclaration a marqué un revirement par rapport à la position antérieure de l’entreprise, qui avait maintenu que l’étiquetage de la fonction était suffisamment clair.

L’analyste en cybersécurité et PDG de SocialProof Security, Rachel Tobac, a félicité OpenAI pour son action rapide. “Nous savons que les entreprises feront parfois des erreurs, elles peuvent implémenter une fonctionnalité sur un site web que les utilisateurs ne comprennent pas et qui impacte leur vie privée ou leur sécurité”, a-t-elle noté. “C’est formidable de voir une action rapide et décisive de l’équipe ChatGPT pour désactiver cette fonctionnalité et maintenir la confidentialité des utilisateurs comme priorité absolue.”

Cependant, l’incident a soulevé des préoccupations plus larges parmi les éthiciens de l’IA. Carissa Véliz, éthicienne de l’IA à l’Université d’Oxford, a exprimé son malaise face à de telles “expériences” impliquant le grand public. “Les entreprises technologiques utilisent la population générale comme cobayes”, a commenté Véliz. “Elles font quelque chose, l’essaient sur la population, et voient si quelqu’un se plaint.”