Wer sieht Ihre KI-Chats? Datenschutzrisiken bei ChatGPT & Gemini
Künstliche Intelligenz (KI)-Tools wie ChatGPT und Google Gemini bieten einen erheblichen Nutzen, bergen aber auch bemerkenswerte Datenschutzherausforderungen. Ein zentrales Anliegen ist, dass die meisten KI-Assistenten umfassende Aufzeichnungen der Benutzerkonversationen speichern. Diese Aufzeichnungen sind nicht nur auf Ihren Geräten zugänglich, sondern werden auch häufig online gespeichert, manchmal auf unbestimmte Zeit, was das Risiko einer Offenlegung durch Systemfehler oder Sicherheitsverletzungen erhöht. Darüber hinaus können einige KI-Anbieter die menschliche Überprüfung dieser Chat-Protokolle zulassen.
Diese Praktiken sollten berücksichtigt werden, insbesondere wenn Sie persönliche Gedanken oder sensible Informationen mit KI-Tools teilen möchten. Um die Privatsphäre zu verbessern, können Benutzer Einstellungen anpassen, private Konversationsmodi verwenden oder KI-Assistenten wählen, die standardmäßig auf Privatsphäre ausgelegt sind.
Eine Überprüfung der Datenschutzeinstellungen und -richtlinien der wichtigsten KI-Assistenten liefert wichtige Details darüber, wie sie Benutzerdaten handhaben und welche Optionen zur Verwaltung verfügbar sind.
ChatGPT (OpenAI)
Standardmäßige Datennutzung: Standardmäßig verwendet ChatGPT Benutzerdaten für das Training des KI-Modells. OpenAI weist darauf hin, dass diese Trainingsdaten unbeabsichtigt persönliche Informationen enthalten können.
Menschliche Überprüfung: Die FAQ von OpenAI besagen, dass Konversationen von Menschen überprüft werden können, um die Systeme zu verbessern.
Deaktivierung des KI-Trainings: Benutzer können die Verwendung ihrer Daten für das KI-Training ablehnen, indem sie zu Einstellungen > Datenkontrollen > Modell für alle verbessern navigieren.
Privater Chat-Modus: Ein “temporärer Chat”-Modus ist verfügbar, der Konversationen aus Ihrem Verlauf heraushält und verhindert, dass sie für das KI-Training verwendet werden. Dieser kann durch Klicken auf “Temporären Chat einschalten” in der oberen rechten Ecke aktiviert werden.
Chat-Freigabe: Konversationen können durch Generieren eines teilbaren Links geteilt werden. (OpenAI hatte zuvor eine Funktion eingeführt und dann wieder entfernt, die es Suchmaschinen ermöglichte, geteilte Chats zu indizieren).
Gezielte Werbung: Die Datenschutzrichtlinie von OpenAI besagt, dass keine persönlichen Daten für kontextbezogene Verhaltenswerbung verkauft oder geteilt werden und auch keine Daten für gezielte Werbung oder sensible persönliche Daten verarbeitet werden, um Verbrauchercharakteristiken abzuleiten.
Datenaufbewahrung: Temporäre und gelöschte Chats werden bis zu 30 Tage lang aufbewahrt, einige können jedoch aus Sicherheits- und rechtlichen Gründen länger gespeichert werden. Alle anderen Daten werden auf unbestimmte Zeit gespeichert.
Google Gemini
Standardmäßige Datennutzung: Gemini verwendet standardmäßig Benutzerdaten für das Training des KI-Modells.
Menschliche Überprüfung: Ja, menschliche Prüfer können auf Ihre Chats zugreifen. Google rät davon ab, Daten einzugeben, die Sie einem Prüfer nicht zeigen möchten. Von einem Prüfer gesehene Daten werden bis zu drei Jahre lang aufbewahrt, auch wenn Sie Ihren Chat-Verlauf löschen.
Deaktivierung des KI-Trainings: Um das KI-Training zu deaktivieren, besuchen Sie myactivity.google.com/product/gemini, klicken Sie auf das Dropdown-Menü “Deaktivieren” und wählen Sie entweder “Deaktivieren” oder “Deaktivieren und Aktivität löschen”.
Privater Chat-Modus: Es gibt keinen speziellen privaten Chat-Modus. Das Deaktivieren der Gemini Apps-Aktivität blendet jedoch Ihren Chat-Verlauf aus der Seitenleiste aus. Beachten Sie, dass das erneute Aktivieren dieser Funktion ohne Löschen vergangener Daten Ihren Verlauf wieder sichtbar macht.
Chat-Freigabe: Konversationen können durch Generieren eines teilbaren Links geteilt werden.
Gezielte Werbung: Google gibt an, Gemini-Chats nicht für die Anzeige von Werbung zu verwenden, obwohl seine allgemeine Datenschutzrichtlinie dies zulässt. Google verpflichtet sich, alle Richtlinienänderungen mitzuteilen.
Datenaufbewahrung: Daten werden auf unbestimmte Zeit gespeichert, es sei denn, die automatische Löschung ist innerhalb der Gemini Apps-Aktivität aktiviert.
Anthropic Claude
Standardmäßige Datennutzung: Anthropic verwendet Konversationen nicht zum Trainieren seiner KI-Modelle, es sei denn, der Benutzer meldet sie manuell oder der Benutzer entscheidet sich für das Testen neuer Funktionen.
Menschliche Überprüfung: Nein, es wird keine menschliche Überprüfung durchgeführt, es sei denn, Konversationen werden wegen Verstoßes gegen Nutzungsrichtlinien markiert.
Deaktivierung des KI-Trainings: Nicht zutreffend aufgrund seiner Standardrichtlinie.
Privater Chat-Modus: Es gibt keinen spezifischen privaten Chat-Modus. Benutzer müssen frühere Konversationen manuell löschen, um sie aus ihrem Verlauf zu entfernen.
Chat-Freigabe: Konversationen können über einen generierten Link geteilt werden.
Gezielte Werbung: Anthropic verwendet Konversationen nicht für gezielte Werbung.
Datenaufbewahrung: Daten werden bis zu zwei Jahre lang aufbewahrt, oder sieben Jahre lang für Prompts, die wegen Vertrauens- und Sicherheitsverletzungen markiert wurden.
Microsoft Copilot
Standardmäßige Datennutzung: Microsoft verwendet Benutzerdaten, um seine KI-Modelle zu trainieren.
Menschliche Überprüfung: Ja. Die Datenschutzrichtlinie von Microsoft weist darauf hin, dass sowohl automatisierte als auch manuelle (menschliche) Methoden zur Verarbeitung personenbezogener Daten eingesetzt werden.
Deaktivierung des KI-Trainings: Diese Option ist etwas versteckt. Benutzer können das Modelltraining deaktivieren, indem sie auf ihr Profilbild, dann auf ihren Namen klicken, zu Datenschutz navigieren und “Modelltraining auf Text” deaktivieren.
Privater Chat-Modus: Kein spezieller privater Chat-Modus. Chats müssen einzeln oder durch Löschen des gesamten Verlaufs von der Microsoft-Kontoseite gelöscht werden.
Chat-Freigabe: Konversationen können durch Generieren eines Links geteilt werden. Geteilte Links können nicht rückgängig gemacht werden, ohne den Chat selbst zu löschen.
Gezielte Werbung: Microsoft verwendet Benutzerdaten für gezielte Werbung und hat Pläne zur Integration von Werbung mit KI angekündigt. Dies kann durch Klicken auf Ihr Profilbild, dann auf Ihren Namen, Navigieren zu Datenschutz und Deaktivieren von “Personalisierung und Erinnerung” deaktiviert werden. Ein separater Link ermöglicht die Deaktivierung aller personalisierten Anzeigen für Ihr Microsoft-Konto.
Datenaufbewahrung: Daten werden 18 Monate lang gespeichert, sofern sie nicht manuell gelöscht werden.
xAI Grok
Standardmäßige Datennutzung: Grok verwendet Benutzerdaten, um seine KI-Modelle zu trainieren.
Menschliche Überprüfung: Ja. Die FAQ von Grok besagen, dass eine “begrenzte Anzahl” von “autorisiertem Personal” Konversationen zu Qualitäts- oder Sicherheitszwecken überprüfen kann.
Deaktivierung des KI-Trainings: Dies kann deaktiviert werden, indem Sie auf Ihr Profilbild klicken, dann zu Einstellungen > Datenkontrollen navigieren und “Modell verbessern” deaktivieren.
Privater Chat-Modus: Eine “Privat”-Schaltfläche oben rechts ermöglicht es Benutzern, einen Chat aus ihrem Verlauf herauszuhalten und zu verhindern, dass er für das KI-Training verwendet wird.
Chat-Freigabe: Konversationen können durch Generieren eines Links geteilt werden. Geteilte Links können nicht rückgängig gemacht werden, ohne den Chat zu löschen.
Gezielte Werbung: Die Datenschutzrichtlinie von Grok besagt, dass Informationen nicht für gezielte Werbezwecke verkauft oder geteilt werden.
Datenaufbewahrung: Private Chats und sogar gelöschte Konversationen werden 30 Tage lang gespeichert. Alle anderen Daten werden auf unbestimmte Zeit gespeichert.
Meta AI
Standardmäßige Datennutzung: Meta AI verwendet Benutzerdaten, um seine KI-Modelle zu trainieren.
Menschliche Überprüfung: Ja. Die Datenschutzrichtlinie von Meta weist darauf hin, dass eine manuelle Überprüfung verwendet wird, um die Erstellung von KI-Inhalten zu “verstehen und zu ermöglichen”.
Deaktivierung des KI-Trainings: Es gibt keine direkte Opt-out-Möglichkeit. US-Benutzer können ein spezifisches Formular einreichen, während Benutzer in der EU und im Vereinigten Königreich ihr Widerspruchsrecht ausüben können.
Privater Chat-Modus: Es ist kein spezieller privater Chat-Modus verfügbar.
Chat-Freigabe: Ja, geteilte Links erscheinen automatisch in einem öffentlichen Feed und können in anderen Meta-Apps angezeigt werden.
Gezielte Werbung: Die Datenschutzrichtlinie von Meta weist darauf hin, dass sie Anzeigen basierend auf gesammelten Informationen, einschließlich Interaktionen mit KI, gezielt schaltet.
Datenaufbewahrung: Daten werden auf unbestimmte Zeit gespeichert.
Perplexity
Standardmäßige Datennutzung: Perplexity verwendet Benutzerdaten, um seine KI-Modelle zu trainieren.
Menschliche Überprüfung: Die Datenschutzrichtlinie von Perplexity erwähnt keine menschliche Überprüfung.
Deaktivierung des KI-Trainings: Dies kann deaktiviert werden, indem Sie zu Konto > Einstellungen navigieren und “KI-Datenaufbewahrung” deaktivieren.
Privater Chat-Modus: Ja, ein “Inkognito”-Modus ist verfügbar, indem Sie auf Ihr Profilsymbol klicken und es unter Ihrem Kontonamen auswählen.
Chat-Freigabe: Konversationen können durch Generieren eines Links geteilt werden.
Gezielte Werbung: Ja. Perplexity gibt an, dass es Informationen mit Drittanbietern von Werbepartnern teilen und Daten aus anderen Quellen (z.B. Datenbrokern) sammeln kann, um die Anzeigenzielgruppe zu verbessern.
Datenaufbewahrung: Daten werden gespeichert, bis der Benutzer sein Konto löscht.
Duck.AI
Standardmäßige Datennutzung: Duck.AI verwendet keine Benutzerdaten zum Trainieren seiner KI-Modelle, dank Vereinbarungen mit großen Anbietern.
Menschliche Überprüfung: Nein.
Deaktivierung des KI-Trainings: Nicht zutreffend aufgrund seiner Standard-Datenschutzrichtlinie.
Privater Chat-Modus: Kein spezieller privater Chat-Modus. Benutzer müssen frühere Chats einzeln oder alle auf einmal über die Seitenleiste löschen.
Chat-Freigabe: Nein, das Teilen von Chats ist keine Option.
Gezielte Werbung: Nein, Chats werden nicht für gezielte Werbung verwendet.
Datenaufbewahrung: Modellanbieter bewahren anonymisierte Daten bis zu 30 Tage lang auf, es sei denn, dies ist aus rechtlichen oder Sicherheitsgründen erforderlich.
Proton Lumo
Standardmäßige Datennutzung: Proton Lumo verwendet keine Benutzerdaten zum Trainieren seiner KI-Modelle.
Menschliche Überprüfung: Nein.
Deaktivierung des KI-Trainings: Nicht zutreffend aufgrund seiner Standard-Datenschutzrichtlinie.
Privater Chat-Modus: Ja, ein privater Modus kann durch Klicken auf das Brillen-Symbol oben rechts aktiviert werden.
Chat-Freigabe: Nein, das Teilen von Chats ist keine Option.
Gezielte Werbung: Nein, Chats werden nicht für gezielte Werbung verwendet.
Datenaufbewahrung: Proton speichert keine Protokolle Ihrer Chats.