Vie privée en péril : OpenAI retire la fonction de chat public de ChatGPT
OpenAI a abandonné une fonctionnalité opt-in controversée de son application ChatGPT après que des conversations privées d’utilisateurs aient commencé à apparaître dans les résultats de recherche de Google. Cette décision fait suite à un rapport de Fast Company qui a souligné comment des dialogues sensibles, certains concernant des sujets profondément personnels, devenaient publiquement accessibles.
Plus tôt cette semaine, le rapport a révélé que des conversations privées de ChatGPT, qui incluaient des discussions sur des sujets tels que l’usage de drogues et la santé sexuelle, étaient inopinément “découvrables” via le moteur de recherche de Google. La racine du problème semblait résider dans la fonction “Partager” de l’application, qui présentait une option ayant pu inciter par inadvertance les utilisateurs à rendre leurs chats publiquement consultables.
Lorsque les utilisateurs sélectionnaient l’option “Partager”, ils avaient la possibilité de cocher une case intitulée “Rendre ce chat découvrable”. Bien qu’un texte plus petit et plus clair sous cette option expliquait que la conversation pourrait alors apparaître dans les résultats des moteurs de recherche, de nombreux utilisateurs auraient ignoré ou mal compris cette mise en garde cruciale, entraînant des divulgations publiques non intentionnelles.
Quelques heures après que le problème ait suscité une vive inquiétude sur les réseaux sociaux, OpenAI a agi rapidement, désactivant la fonctionnalité et initiant des efforts pour supprimer les conversations exposées des index des moteurs de recherche.
Dane Stuckey, directeur de la sécurité de l’information d’OpenAI, a abordé la situation dans une déclaration publique. « En fin de compte, nous pensons que cette fonctionnalité a introduit trop d’occasions pour les gens de partager accidentellement des choses qu’ils n’avaient pas l’intention de partager, nous supprimons donc l’option », a déclaré Stuckey. Il a ajouté : « Nous travaillons également à supprimer le contenu indexé des moteurs de recherche pertinents. » Cette déclaration a marqué un changement significatif par rapport à la position antérieure de l’entreprise, qui avait maintenu que l’étiquetage de la fonctionnalité était suffisamment clair.
La réponse rapide d’OpenAI a été saluée par l’analyste en cybersécurité Rachel Tobac, PDG de SocialProof Security. Tobac a reconnu que les entreprises peuvent commettre des erreurs lors de l’implémentation de fonctionnalités ayant un impact sur la confidentialité ou la sécurité des utilisateurs. « C’est formidable de voir une action rapide et décisive de l’équipe ChatGPT ici pour désactiver cette fonctionnalité et maintenir la confidentialité des utilisateurs comme une priorité absolue », a-t-elle remarqué.
Cependant, l’incident a également suscité des critiques concernant la nature de ces fonctionnalités. Stuckey d’OpenAI a qualifié l’option désormais supprimée d’« expérience de courte durée ». Mais Carissa Véliz, une éthicienne de l’IA à l’Université d’Oxford, a exprimé son inquiétude quant aux implications de tels essais. « Les entreprises technologiques utilisent la population générale comme cobayes », a commenté Véliz. « Elles font quelque chose, l’essaient sur la population, et voient si quelqu’un se plaint. »
L’épisode souligne les défis et les responsabilités constants auxquels sont confrontées les entreprises technologiques pour concilier innovation, confidentialité des utilisateurs et sécurité des données, en particulier dans des domaines en évolution rapide comme l’intelligence artificielle.