OpenAI entfernt ChatGPT-Funktion: Private Chats auf Google enthüllt
OpenAI hat eine umstrittene Opt-in-Funktion von seiner ChatGPT-Plattform schnell zurückgezogen, nachdem Berichte aufgedeckt hatten, dass private Nutzergespräche versehentlich in Google-Suchergebnissen erschienen. Der Schritt erfolgte nach einer Untersuchung von Fast Company, die Fälle von hochsensiblen Diskussionen, einschließlich solcher, die Drogenkonsum und sexuelle Gesundheit betrafen, aufdeckte, die öffentlich zugänglich wurden.
Die Datenschutzlücke entstand durch eine „Teilen“-Funktion innerhalb der ChatGPT-Anwendung. Wenn Nutzer sich entschieden, eine Konversation zu teilen, wurde ihnen ein Kontrollkästchen mit der Aufschrift „Diesen Chat auffindbar machen“ angezeigt. Unter dieser Option, in kleinerem, hellerer Schrift, befand sich ein entscheidender Hinweis: Das Ankreuzen des Kästchens würde es dem Chat ermöglichen, in Suchmaschinenergebnissen zu erscheinen. Kritiker argumentieren, dass das Design und die Formulierung dieser Aufforderung mehrdeutig waren und Nutzer möglicherweise dazu verleiteten, ihre privaten Dialoge unwissentlich öffentlich zu machen.
Innerhalb weniger Stunden, nachdem das Problem an Fahrt gewann und eine breite Gegenreaktion in den sozialen Medien auslöste, handelte OpenAI entschlossen. Das Unternehmen deaktivierte nicht nur die problematische Funktion, sondern begann auch damit, die bereits offengelegten Gespräche aus den Suchmaschinenindizes zu entfernen. Dane Stuckey, Chief Information Security Officer von OpenAI, bestätigte die Entscheidung in einer öffentlichen Erklärung und räumte den Fehler ein. „Letztendlich glauben wir, dass diese Funktion zu viele Möglichkeiten für Leute bot, versehentlich Dinge zu teilen, die sie nicht beabsichtigten, daher entfernen wir die Option“, erklärte Stuckey und fügte hinzu, dass das Unternehmen aktiv daran arbeite, die indizierten Inhalte aus relevanten Suchmaschinen zu entfernen. Dies markiert eine bemerkenswerte Umkehr von OpenAIs früherer Position, die behauptet hatte, dass die Kennzeichnung der Funktion ausreichend klar sei.
Die schnelle Reaktion von OpenAI erntete Lob von einigen Cybersicherheitsexperten. Rachel Tobac, Cybersicherheitsanalystin und CEO von SocialProof Security, lobte das Unternehmen für sein schnelles Handeln, sobald das Ausmaß der unbeabsichtigten Datenfreigabe offensichtlich wurde. „Wir wissen, dass Unternehmen manchmal Fehler machen werden, sie können eine Funktion auf einer Website implementieren, die Nutzer nicht verstehen und ihre Privatsphäre oder Sicherheit beeinträchtigen“, bemerkte Tobac. „Es ist großartig zu sehen, wie schnell und entschlossen das ChatGPT-Team hier handelt, um diese Funktion abzuschalten und die Privatsphäre der Nutzer als oberste Priorität zu behandeln.“
Allerdings waren nicht alle Reaktionen durchweg positiv. Während OpenAIs Stuckey die Funktion als „kurzlebiges Experiment“ charakterisierte, löste diese Formulierung Bedenken bei KI-Ethikern aus. Carissa Véliz, KI-Ethikerin an der Universität Oxford, äußerte eine kritischere Perspektive zu diesem Ansatz. „Technologieunternehmen nutzen die allgemeine Bevölkerung als Versuchskaninchen“, behauptete Véliz und hob ein breiteres ethisches Dilemma hervor, bei dem neue Funktionen einer breiten Nutzerbasis bereitgestellt werden, ohne potenzielle Datenschutzrisiken vollständig zu antizipieren oder zu mindern, nur um dann zurückgezogen zu werden, wenn ein erheblicher öffentlicher Aufschrei folgt. Dieser Vorfall unterstreicht das empfindliche Gleichgewicht, das Technologieunternehmen zwischen schneller Innovation und der Gewährleistung robuster Benutzerprivatsphäre und Datensicherheit finden müssen, insbesondere da KI-Tools zunehmend in den Alltag integriert werden.