ChatGPT-Chats in Google: Datenschutz-Albtraum?

Arstechnica

OpenAI hat eine kontroverse ChatGPT-Funktion deaktiviert, nachdem bekannt wurde, dass sie private Nutzergespräche unbeabsichtigt in Google-Suchergebnissen offengelegt hatte. Dieser Schritt erfolgte, nachdem ein Bericht von Fast Company hervorhob, dass Tausende hochpersönlicher ChatGPT-Chats öffentlich auffindbar waren, was möglicherweise Millionen von Nutzern betrifft.

Die Untersuchung von Fast Company fand zahlreiche von Google indizierte Konversationen, einige davon enthielten intime Details wie spezifische Beschreibungen zwischenmenschlicher Beziehungen. Obwohl direkt keine identifizierenden Nutzerinformationen in den indizierten Chats enthalten waren, gab die zutiefst persönliche Natur einiger Inhalte Anlass zur Sorge hinsichtlich einer potenziellen indirekten Identifizierung.

Laut Dane Stuckey, Chief Information Security Officer von OpenAI, gehörten die offengelegten Chats Nutzern, die sich für die Indizierung „angemeldet“ hatten. Dies geschah, wenn Nutzer einen Chat teilen wollten und anschließend ein Kontrollkästchen mit der Beschriftung „Diesen Chat auffindbar machen“ anklickten. Unter dieser Option befand sich in kleinerem, hellerem Text ein Hinweis, der erklärte, dass der Chat dann in Suchmaschinenergebnissen erscheinen könnte. Fast Company bemerkte, dass Nutzer Chats oft für einfache Zwecke teilen, wie das Senden über WhatsApp oder das Speichern eines Links für späteren Zugriff, und die Implikation der Indizierung aufgrund der subtilen Formatierung möglicherweise übersehen oder missverstanden haben.

Anfangs verteidigte OpenAI die Klarheit ihrer Beschriftung. Stuckey bestätigte jedoch später, dass das Unternehmen letztendlich entschied, dass die Funktion „zu viele Gelegenheiten für Leute schuf, versehentlich Dinge zu teilen, die sie nicht beabsichtigten“. Die offengelegten Konversationen umfassten hochsensible Diskussionen über Drogenkonsum, Sexualleben, psychische Gesundheit und traumatische Erfahrungen.

Die Enthüllung zog scharfe Kritik von der KI-Ethikerin Carissa Veliz von der Universität Oxford nach sich, die sich „schockiert“ über die Indizierung solch „extrem sensibler Konversationen“ zeigte. Veliz kritisierte die breitere Praxis von Technologieunternehmen und erklärte, sie „nutzen die allgemeine Bevölkerung oft als Versuchskaninchen“, indem sie neue KI-Produkte einsetzen und abwarten, um die Nutzerreaktionen auf potenziell invasive Designentscheidungen zu beurteilen.

Stuckey charakterisierte die Funktion als ein „kurzlebiges Experiment“, das „Menschen helfen sollte, nützliche Konversationen zu entdecken“. Er bestätigte, dass OpenAI aktiv daran arbeitet, die indizierten Inhalte aus den relevanten Suchmaschinen zu entfernen. Google hat sich zu der Angelegenheit nicht geäußert, sodass unklar bleibt, ob alle indizierten Chats vollständig entfernt wurden oder welche Rolle der Suchriese bei deren Anzeige spielte.

Für Nutzer, die sich um ihre früheren Chats sorgen, schlug Fast Company vor, dass diejenigen, die noch Zugriff auf ihre geteilten Links haben, Teile dieser Links in Google eingeben könnten, um nach auffindbaren Konversationen zu suchen.

Dieser Vorfall trägt zu den bestehenden Datenschutzbedenken bezüglich OpenAI bei. Er folgt auf einen kürzlichen Rechtsstreit, bei dem OpenAI schwor, eine gerichtliche Anordnung zu bekämpfen, die es dazu verpflichtete, alle gelöschten Chats auf unbestimmte Zeit aufzubewahren – eine Haltung, die Nutzer beunruhigte, die glaubten, dass ihre temporären und gelöschten Chats nicht gespeichert würden. Während OpenAI-CEO Sam Altman zuvor zugab, dass die Suchbarkeit der privatesten Chats von Nutzern in einem rechtlichen Kontext „vermurgst“ sei, stellte Fast Company eine wahrgenommene mangelnde ähnliche Transparenz hinsichtlich der eigenen Praktiken von OpenAI fest, die möglicherweise Chats über Suchmaschinen offenlegen.

OpenAI hat sein Engagement für den Datenschutz der Nutzer bekräftigt. „Sicherheit und Datenschutz sind für uns von größter Bedeutung, und wir werden weiterhin daran arbeiten, dies in unseren Produkten und Funktionen maximal widerzuspiegeln“, erklärte Stuckey und wies auf die Absicht des Unternehmens hin, nach diesem Fehltritt Vertrauen wieder aufzubauen.

ChatGPT-Chats in Google: Datenschutz-Albtraum? - OmegaNext KI-Nachrichten