OpenAI entfernt ChatGPT-Suchfunktion nach Datenschutzbedenken

Fastcompany

OpenAI hat eine Opt-in-Funktion von seiner ChatGPT-Plattform entfernt, nachdem entdeckt wurde, dass private Nutzerkonversationen in Google-Suchergebnissen erschienen. Die Entscheidung folgt einem Bericht von Fast Company, der die öffentliche Zugänglichkeit sensibler Diskussionen hervorhob.

Anfang dieser Woche wurde bekannt, dass private ChatGPT-Konversationen, einige davon mit hochpersönlichen Informationen wie Details zum Drogenkonsum oder zur sexuellen Gesundheit, unerwartet von Google indiziert wurden. Das Problem ging Berichten zufolge von der „Teilen“-Funktion innerhalb der ChatGPT-Anwendung aus. Wenn Nutzer einen Chat teilen wollten, wurde ihnen ein Kontrollkästchen mit der Aufschrift „Diesen Chat auffindbar machen“ präsentiert. Unter dieser Option, in kleinerem, hellerer Schrift, stand ein Haftungsausschluss, der besagte, dass die Konversation dann in Suchmaschinenergebnissen erscheinen könnte. Kritiker deuteten an, dass dieses Design Nutzer möglicherweise unbeabsichtigt dazu verleitete, ihre privaten Chats öffentlich durchsuchbar zu machen, ohne sich der Konsequenzen voll bewusst zu sein.

Als Reaktion auf den weit verbreiteten Gegenwind in den sozialen Medien zog OpenAI die Funktion umgehend zurück und leitete Bemühungen ein, alle exponierten Konversationen aus den Suchmaschinenindizes zu entfernen.

Dane Stuckey, Chief Information Security Officer von OpenAI, äußerte sich zu dem Problem und erklärte: „Letztendlich sind wir der Meinung, dass diese Funktion zu viele Gelegenheiten für Menschen bot, versehentlich Dinge zu teilen, die sie nicht beabsichtigten, daher entfernen wir die Option.“ Er fügte hinzu: „Wir arbeiten auch daran, indizierte Inhalte aus den relevanten Suchmaschinen zu entfernen.“ Stuckey bezeichnete die Funktion als ein „kurzlebiges Experiment“. Diese Aussage markierte eine Kehrtwende gegenüber der früheren Position des Unternehmens, das zuvor behauptet hatte, die Kennzeichnung der Funktion sei ausreichend klar.

Die Cybersicherheitsanalystin und CEO von SocialProof Security, Rachel Tobac, lobte OpenAI für ihr schnelles Handeln. „Wir wissen, dass Unternehmen manchmal Fehler machen, sie implementieren möglicherweise eine Funktion auf einer Website, die Nutzer nicht verstehen und die ihre Privatsphäre oder Sicherheit beeinträchtigt“, bemerkte sie. „Es ist großartig zu sehen, wie das ChatGPT-Team hier schnell und entschlossen handelt, um diese Funktion abzuschalten und die Privatsphäre der Nutzer als oberste Priorität zu behandeln.“

Der Vorfall hat jedoch bei KI-Ethikern größere Bedenken ausgelöst. Carissa Véliz, eine KI-Ethikerin an der Universität Oxford, äußerte Unbehagen über solche „Experimente“ mit der breiten Öffentlichkeit. „Tech-Unternehmen nutzen die allgemeine Bevölkerung als Versuchskaninchen“, kommentierte Véliz. „Sie tun etwas, probieren es an der Bevölkerung aus und sehen, ob sich jemand beschwert.“