Fast 100.000 ChatGPT-Chats bei Google offengelegt – Brisante Daten im Netz

2025-08-05T14:29:27.000Z404media

Ein erhebliches Datenschutzleck ist ans Licht gekommen, das enthüllt, dass fast 100.000 Konversationen, die auf OpenAIs ChatGPT geführt wurden, von Google und anderen Suchmaschinen indexiert und somit öffentlich durchsuchbar gemacht wurden. Diese Offenlegung, die ursprünglich von Fast Company berichtet und von 404Media.co detaillierter beschrieben wurde, entstand durch eine "Teilen-Funktion", die es Benutzern ermöglichen sollte, Links zu ihren Konversationen zu generieren, wodurch unbeabsichtigt sensible persönliche und berufliche Daten im offenen Web exponiert wurden.

Das Problem entstand durch ein Kontrollkästchen "Diesen Chat auffindbar machen", das Benutzern angezeigt wurde, wenn sie sich entschieden, eine ChatGPT-Konversation zu teilen. Obwohl die Funktion einen Kleingedruckten enthielt, der darauf hinwies, dass der Chat in Suchergebnissen erscheinen könnte, klickten viele Benutzer Berichten zufolge diese Option an, ohne die Auswirkungen der öffentlichen Exposition vollständig zu verstehen. Das Ergebnis war ein riesiger Datensatz von Konversationen, die von einem Forscher gescrapt wurden und bei denen OpenAI nicht bestritt, dass es sich um etwa 100.000 indexierte Chats handelte.

Die exponierten Daten sind alarmierend vielfältig und sensibel. Sie umfassen angebliche Texte von Geheimhaltungsvereinbarungen, Diskussionen über vertrauliche Verträge, zutiefst persönliche Beziehungsprobleme, Geständnisse zur psychischen Gesundheit, Arbeitsbeschwerden, Details über Drogenkonsum und Sexualleben sowie sogar Bewerbungen. Einige indexierte Chats enthielten vollständige Namen, Standorte, Kontaktinformationen, Berufsbezeichnungen, Firmennamen und interne Prozesse, wodurch private Austausche zu potenziellen Open-Source-Intelligence (OSINT)-Goldminen für böswillige Akteure oder Konkurrenten wurden.

Als Reaktion auf die weitreichende Besorgnis und Medienaufmerksamkeit kündigte OpenAIs Chief Information Security Officer (CISO), Dane Stuckey, auf X (ehemals Twitter) an, dass das Unternehmen die "Auffindbarkeitsfunktion" vollständig entfernt habe. OpenAI beschrieb sie als ein "kurzlebiges Experiment", das Benutzern helfen sollte, nützliche Konversationen zu entdecken. Das Unternehmen arbeitet nun mit Suchmaschinen zusammen, um die geteilten Chats zu de-indexieren, obwohl es einräumte, dass zwischengespeicherte Versionen noch einige Zeit sichtbar bleiben könnten.

Dieser Vorfall unterstreicht kritische Herausforderungen in der KI-Governance und Datenhygiene, da generative KI-Tools zunehmend in die täglichen Arbeitsabläufe integriert werden. Er hebt die überragende Bedeutung eines klaren, eindeutigen Benutzeroberflächendesigns und robuster Datenschutzstandards hervor, um unbeabsichtigte Datenexposition zu verhindern. Die schnelle Reaktion von OpenAI, die Funktion innerhalb weniger Stunden nach dem Gegenwind zurückzuziehen, deutet auf eine Anerkennung der Schwere des Vertrauensbruchs hin.

Benutzern, die sich um ihre Daten sorgen, wird geraten, zu überprüfen, ob ihre Konversationen indexiert wurden, indem sie eine Google-Suche mit "site:chatgpt.com/share" gefolgt von ihrem Namen oder einzigartigen Begriffen aus ihren Chats durchführen. Benutzer können alle geteilten Links, die sie nicht mehr öffentlich wünschen, löschen, indem sie zu ihren ChatGPT-Einstellungen navigieren, dann zu "Datenkontrollen" und schließlich zu "Geteilte Links". Darüber hinaus dient der Vorfall als deutliche Erinnerung, Vorsicht walten zu lassen, wenn sensible Informationen mit KI-Chatbots geteilt werden, und solche Interaktionen als potenziell dauerhafte digitale Aufzeichnungen zu behandeln.

Fast 100.000 ChatGPT-Chats bei Google offengelegt – Brisante Daten im Netz - OmegaNext KI-Nachrichten