OpenAI stoppt durchsuchbare ChatGPT-Konversationen

Businessinsider

OpenAI hat eine kürzlich eingeführte Funktion, die es Nutzern ermöglichte, ihre privaten Gespräche mit ChatGPT für Suchmaschinen auffindbar zu machen, aufgrund von Datenschutzbedenken schnell wieder rückgängig gemacht. Die Rücknahme erfolgt inmitten einer wachsenden Überprüfung der Datenprivatsphäre bei KI-Interaktionen und jüngster Enthüllungen, dass geteilte ChatGPT-Konversationen von Google indexiert wurden.

Die Entscheidung wurde vom Chief Information Security Officer von OpenAI bekannt gegeben, der erklärte, dass das Unternehmen die Funktion zurücknimmt, um den Datenschutzbedenken der Nutzer Rechnung zu tragen. Dieser Schritt folgt Berichten, dass Google geteilte ChatGPT-Links indexierte, wodurch private Austausche, die potenziell sensible persönliche oder geschäftliche Informationen enthalten könnten, öffentlich durchsuchbar wurden. Nutzer, die die „Teilen“-Funktion von ChatGPT nutzten, um einzigartige URLs für Konversationen zu generieren, oft mit der Absicht, sie mit einem begrenzten Publikum zu teilen, stellten fest, dass diese Links über allgemeine Websuchen entdeckt werden konnten, wodurch Prompts und Antworten offengelegt wurden.

Diese Entwicklung unterstreicht die anhaltenden Herausforderungen des Datenschutzes in der sich schnell entwickelnden KI-Landschaft. Während OpenAI zuvor im November 2024 eine „ChatGPT-Suchfunktion“ eingeführt hatte, die es ChatGPT ermöglichen sollte, das Web nach Informationen zu durchsuchen und Antworten mit Quellen zu liefern, bezieht sich das vorliegende Problem speziell auf die Durchsuchbarkeit von privaten Nutzerkonversationen, die geteilt wurden.

OpenAI-CEO Sam Altman hat die Nutzer kürzlich auch davor gewarnt, dass Gespräche mit ChatGPT nicht rechtlich privilegiert sind, im Gegensatz zu Diskussionen mit medizinischem oder juristischem Fachpersonal, und potenziell in Gerichtsverfahren offengelegt werden könnten. Diese Warnung, zusammen mit dem jüngsten Problem der Durchsuchbarkeit, hebt eine erhebliche Lücke in den Nutzererwartungen hinsichtlich der Vertraulichkeit ihrer Interaktionen mit KI-Modellen hervor. Viele Nutzer, insbesondere jüngere Personen, sollen ChatGPT für sehr persönliche Angelegenheiten, einschließlich Therapie und Lebensberatung, unter der Annahme der Privatsphäre genutzt haben.

OpenAI arbeitet aktiv an der Stärkung seiner Sicherheitsinitiativen. Im Oktober 2024 trat Dane Stuckey, ehemals Chief Information Security Officer bei Palantir Technologies, OpenAI als neuer CISO bei und arbeitet dort an der Seite von Matt Knight, der zuvor zum Head of Security befördert wurde. Stuckey betonte, dass Sicherheit für OpenAIs Mission, sichere allgemeine künstliche Intelligenz zu entwickeln und hohe Standards an Compliance und Vertrauen aufrechtzuerhalten, von zentraler Bedeutung ist. Das Unternehmen gibt auch an, dass seine API-, ChatGPT Enterprise-, ChatGPT Team- und ChatGPT Edu-Produkte durch SOC 2 Typ 2-Berichte abgedeckt sind, was die Einhaltung von Industriestandards für Sicherheit und Vertraulichkeit belegt.

Trotz dieser Sicherheitsmaßnahmen zeigt der Vorfall mit durchsuchbaren privaten Konversationen die Komplexität der Verwaltung von Nutzerdaten in KI-Systemen, die zunehmend in den Alltag integriert werden. Nutzern wird geraten, Vorsicht walten zu lassen und jede geteilte ChatGPT-Konversation als potenziell öffentlich zu betrachten, selbst wenn sie ursprünglich für ein kleines Publikum gedacht war.