OpenAI entfernt ChatGPT-Suchfunktion nach Datenschutz-Skandal
OpenAI hat eine umstrittene Opt-in-Funktion in ihrer ChatGPT-Anwendung eingestellt, nachdem private Nutzergespräche in Google-Suchergebnissen aufgetaucht waren. Der Schritt folgt einem Bericht von Fast Company, der hervorhob, wie sensible Dialoge, einige davon persönliche Themen betreffend, öffentlich zugänglich wurden.
Anfang dieser Woche enthüllte der Bericht, dass private ChatGPT-Gespräche, die Diskussionen über Themen wie Drogenkonsum und sexuelle Gesundheit umfassten, unerwartet über die Google-Suchmaschine auffindbar waren. Die Ursache des Problems schien in der “Teilen”-Funktion der Anwendung zu liegen, die eine Option präsentierte, die Benutzer möglicherweise unbeabsichtigt dazu veranlasste, ihre Chats öffentlich durchsuchbar zu machen.
Wenn Benutzer die Option “Teilen” auswählten, wurde ihnen die Möglichkeit gegeben, ein Kästchen mit der Aufschrift “Diesen Chat auffindbar machen” anzukreuzen. Obwohl ein kleinerer, hellerer Text unter dieser Option erklärte, dass die Konversation dann in Suchmaschinenergebnissen erscheinen könnte, übersehen oder missverstanden viele Benutzer Berichten zufolge diesen entscheidenden Hinweis, was zu unbeabsichtigten öffentlichen Offenlegungen führte.
Innerhalb von Stunden, nachdem das Problem weitreichende Besorgnis in den sozialen Medien ausgelöst hatte, handelte OpenAI schnell, deaktivierte die Funktion und leitete Bemühungen ein, die exponierten Konversationen aus den Suchmaschinenindizes zu entfernen.
Dane Stuckey, Chief Information Security Officer von OpenAI, äußerte sich in einer öffentlichen Erklärung zu der Situation. “Letztendlich denken wir, dass diese Funktion zu viele Gelegenheiten für Leute bot, versehentlich Dinge zu teilen, die sie nicht beabsichtigten, daher entfernen wir die Option”, erklärte Stuckey. Er fügte hinzu: “Wir arbeiten auch daran, indexierte Inhalte aus den relevanten Suchmaschinen zu entfernen.” Diese Erklärung markierte eine signifikante Abkehr von der früheren Haltung des Unternehmens, die besagte, dass die Kennzeichnung der Funktion ausreichend klar sei.
Die prompte Reaktion von OpenAI wurde von der Cybersicherheitsanalystin Rachel Tobac, CEO von SocialProof Security, gelobt. Tobac räumte ein, dass Unternehmen Fehler bei der Implementierung von Funktionen machen können, die die Nutzerprivatsphäre oder -sicherheit beeinträchtigen. “Es ist großartig zu sehen, dass das ChatGPT-Team hier schnell und entschlossen handelt, um diese Funktion abzuschalten und die Privatsphäre der Benutzer oberste Priorität zu lassen”, bemerkte sie.
Der Vorfall zog jedoch auch Kritik an der Art solcher Funktionen nach sich. Stuckey von OpenAI charakterisierte die nun entfernte Option als “kurzlebiges Experiment”. Aber Carissa Véliz, eine KI-Ethikerin an der Universität Oxford, äußerte Bedenken hinsichtlich der Auswirkungen solcher Versuche. “Tech-Firmen benutzen die allgemeine Bevölkerung als Versuchskaninchen”, kommentierte Véliz. “Sie tun etwas, probieren es an der Bevölkerung aus und sehen, ob sich jemand beschwert.”
Die Episode unterstreicht die anhaltenden Herausforderungen und Verantwortlichkeiten, denen sich Technologieunternehmen gegenübersehen, wenn es darum geht, Innovation mit Nutzerprivatsphäre und Datensicherheit in Einklang zu bringen, insbesondere in sich schnell entwickelnden Bereichen wie der künstlichen Intelligenz.