OpenAI supprime une fonction de ChatGPT exposant les chats privés sur Google
OpenAI a rapidement retiré une fonction optionnelle controversée de sa plateforme ChatGPT après que des rapports ont révélé que des conversations privées d’utilisateurs apparaissaient par inadvertance dans les résultats de recherche Google. Cette décision fait suite à une enquête de Fast Company, qui a découvert des cas de discussions très sensibles, y compris celles liées à la consommation de drogues et à la santé sexuelle, devenant publiquement accessibles en ligne.
La faille de confidentialité provenait d’une fonction “Partager” au sein de l’application ChatGPT. Lorsque les utilisateurs choisissaient de partager une conversation, ils se voyaient présenter une case à cocher intitulée “Rendre ce chat découvrable”. Sous cette option, en texte plus petit et plus clair, figurait une mise en garde cruciale : cocher la case permettrait au chat d’apparaître dans les résultats des moteurs de recherche. Les critiques soutiennent que la conception et le langage de cette invite étaient ambigus, pouvant induire les utilisateurs en erreur et les pousser à rendre publics leurs dialogues privés à leur insu.
Dans les heures qui ont suivi la prise d’ampleur du problème et le tollé généralisé sur les plateformes de médias sociaux, OpenAI a agi de manière décisive. L’entreprise a non seulement désactivé la fonction problématique, mais a également entrepris des efforts pour supprimer les conversations déjà exposées des index des moteurs de recherche. Dane Stuckey, responsable de la sécurité de l’information chez OpenAI, a confirmé la décision dans une déclaration publique, reconnaissant la faille. “En fin de compte, nous pensons que cette fonctionnalité offrait trop d’occasions aux utilisateurs de partager accidentellement des choses qu’ils n’avaient pas l’intention de partager, nous supprimons donc l’option”, a déclaré Stuckey, ajoutant que l’entreprise travaillait activement à la suppression du contenu indexé des moteurs de recherche pertinents. Cela marque un revirement notable par rapport à la position antérieure d’OpenAI, qui avait maintenu que l’étiquetage de la fonction était suffisamment clair.
La rapidité de la réponse d’OpenAI a été saluée par certains experts en cybersécurité. Rachel Tobac, analyste en cybersécurité et PDG de SocialProof Security, a félicité l’entreprise pour son action rapide une fois que l’étendue du partage involontaire de données est devenue apparente. “Nous savons que les entreprises commettent parfois des erreurs, elles peuvent implémenter une fonctionnalité sur un site web que les utilisateurs ne comprennent pas et qui a un impact sur leur confidentialité ou leur sécurité”, a fait remarquer Tobac. “C’est formidable de voir l’action rapide et décisive de l’équipe ChatGPT pour désactiver cette fonctionnalité et maintenir la confidentialité de l’utilisateur comme priorité absolue.”
Cependant, toutes les réactions n’ont pas été entièrement positives. Bien que Stuckey d’OpenAI ait qualifié la fonction d’“expérience de courte durée”, cette formulation a soulevé des inquiétudes parmi les éthiciens de l’IA. Carissa Véliz, éthicienne de l’IA à l’Université d’Oxford, a exprimé une perspective plus critique sur l’approche. “Les entreprises technologiques utilisent la population générale comme cobayes”, a affirmé Véliz, soulignant un dilemme éthique plus large où de nouvelles fonctionnalités sont déployées auprès d’une large base d’utilisateurs sans anticiper ou atténuer pleinement les risques potentiels pour la confidentialité, pour n’être retirées qu’en cas de tollé public significatif. Cet incident souligne l’équilibre délicat que les entreprises technologiques doivent trouver entre l’innovation rapide et la garantie d’une confidentialité et d’une sécurité robustes des données des utilisateurs, en particulier à mesure que les outils d’IA s’intègrent de plus en plus dans la vie quotidienne.