OpenAI entfernt ChatGPT-Option wegen Datenschutzbedenken
OpenAI hat eine Funktion in ChatGPT, die es Nutzern ermöglichte, ihre Konversationen von Suchmaschinen auffindbar zu machen, schnell entfernt. Als Grund wurden Bedenken wegen der versehentlichen Preisgabe sensibler persönlicher Informationen genannt. Die „Self-Doxing“-Option, die Anfang des Jahres still und leise eingeführt wurde, ermöglichte es Nutzern, beim Erstellen eines öffentlichen Links zu einem Chat ein Kontrollkästchen anzukreuzen, um „mit Suchmaschinen zu teilen“.
Die Entscheidung zur Entfernung der Funktion erfolgte, nachdem Berichte aufkamen, dass Tausende privater ChatGPT-Konversationen, einige davon mit hochpersönlichen und identifizierenden Details, unbeabsichtigt von Suchmaschinen wie Google indiziert wurden. Eine Fast Company-Untersuchung fand angeblich über 4.500 solcher indizierten Konversationen, die von harmlosen Fragen und Antworten bis hin zu Diskussionen mit Namen, Orten und anderen sensiblen Informationen reichten. Dane Stuckey, Chief Information Security Officer von OpenAI, kündigte die Änderung auf X (ehemals Twitter) an und beschrieb die Funktion als ein „kurzlebiges Experiment, um Menschen zu helfen, nützliche Konversationen zu entdecken“.
Stuckey räumte ein, dass die Funktion „zu viele Gelegenheiten für Nutzer schuf, versehentlich Dinge zu teilen, die sie nicht beabsichtigten“, was zu ihrer Entfernung führte. Obwohl die Funktion opt-in war und die Nutzer explizit auswählen mussten, ihre Chats auffindbar zu machen, haben viele Nutzer, die Beispiele mit Freunden oder Kollegen teilen wollten, diese unbeabsichtigt öffentlich zugänglich gemacht.
OpenAI arbeitet nun aktiv mit großen Suchanbietern zusammen, um bereits indizierte Konversationen zu bereinigen und eine weitere Offenlegung zu begrenzen. Dieser Vorfall unterstreicht die anhaltende Herausforderung, Offenheit und Benutzerdatenschutz in der sich schnell entwickelnden Landschaft der KI-Tools in Einklang zu bringen. Selbst mit expliziten Warnungen unterstreicht die Leichtigkeit, mit der sensible Daten versehentlich offengelegt werden können, die Notwendigkeit robuster Datenschutzvorkehrungen auf KI-Plattformen, insbesondere da Nutzer Chatbots zunehmend persönliche und berufliche Informationen anvertrauen.
Das Unternehmen betont, dass geteilte Links zwar nicht den Namen oder die Kontodaten des Nutzers enthalten, aber spezifische Phrasen oder Namen, die im Chat selbst enthalten sind, den Inhalt identifizierbar und durchsuchbar machen könnten. Nutzern, die zuvor ChatGPT-Konversationen geteilt haben, wird geraten, ihr „Geteilte Links“-Dashboard in den ChatGPT-Einstellungen zu überprüfen und alle Links zu löschen, die sie privat halten möchten.