Meta AI-Auftragnehmer lesen private Chats & identifizieren Nutzer
In einer Entwicklung, die erhebliche Datenschutzbedenken aufwirft, haben Auftragnehmer, die mit der Schulung der künstlichen Intelligenz (KI)-Systeme von Meta beauftragt sind, Berichten zufolge Zugang zu intimen Gesprächen, die Nutzer mit dem KI-Chatbot des Unternehmens geführt haben, sowie zu Daten, die diese Nutzer identifizieren könnten. Diese Enthüllung, die in einem kürzlich erschienenen Business Insider-Bericht hervorgehoben wurde, unterstreicht die komplexen ethischen und datenschutzrechtlichen Herausforderungen, die dem schnellen Fortschritt der KI-Technologie und der weit verbreiteten Branchenpraxis, Gig-Worker für die Datenüberprüfung einzusetzen, innewohnen.
Meta verlässt sich, wie viele führende Technologieunternehmen, auf menschliche Prüfer, um seine KI-Modelle, einschließlich seiner Konversations-Chatbots, zu verfeinern. Diese Auftragnehmer überprüfen reale Benutzerinteraktionen, um das Verständnis, die Reaktionsfähigkeit und die Genauigkeit der KI zu verbessern. Der Business Insider-Bericht bringt jedoch Behauptungen ans Licht, dass diese Prüfer hochpersönlichen und sensiblen Austausch ausgesetzt sind, der von Diskussionen über medizinische Zustände und Eheprobleme bis hin zu Rechtsberatung reicht, oft zusammen mit Informationen, die die beteiligten Personen potenziell identifizieren könnten. Diese Praxis, die Berichten zufolge Partner wie Scale AI und Alignerr umfasst, steht im Widerspruch zu den wahrscheinlichen Erwartungen der Nutzer an die Privatsphäre bei der Interaktion mit einem Chatbot.
Während Meta öffentlich erklärt hat, dass es den Inhalt privater Nachrichten zwischen Freunden und Familie nicht zum Trainieren seiner KIs verwendet und „keine privaten Inhalte trainiert“, weist seine ergänzende Datenschutzrichtlinie darauf hin, dass „Aufzeichnungen, Transkripte und verwandte Daten über Ihre Sprachgespräche mit Meta AI“ mit „Anbietern und Dienstleistern geteilt werden, die uns bei der Verbesserung, Fehlerbehebung und Schulung unserer Spracherkennungssysteme unterstützen“. Diese Richtliniensprache scheint genau den Zugang zu erlauben, der jetzt unter die Lupe genommen wird. Frühere Fälle haben ebenfalls Bedenken hinsichtlich der unbeabsichtigten Aufnahme identifizierbarer Daten in Trainingssätze aufgeworfen, wie etwa ein Business Insider-Journalist, dessen Telefonnummer von Meta AI irrtümlicherweise als eigene übernommen wurde, was zu unerwünschten Nachrichten führte.
Dieses Problem ist Teil eines breiteren Spektrums von Datenschutzbedenken im Zusammenhang mit KI-Chatbots. Eine Untersuchung vom Juli 2025 der Datenschutzfirma Incogni ergab, dass große generative KI-Chatbots, einschließlich Meta AI, sensible Informationen sammeln und diese oft ohne ausreichende Transparenz oder Nutzerkontrolle an Dritte weitergeben, wobei Meta.ai speziell Namen und Kontaktdaten mit externen Partnern teilt. Nutzer vertrauen Chatbots häufig sehr persönliche Informationen an, oft unter der Annahme eines Vertraulichkeitsgrades, der nicht existiert. Diese Wahrnehmung wurde durch Metas „Discover Feed“-Funktion weiter verkompliziert, die unabsichtlich dazu führte, dass unzählige Nutzer extrem private Gespräche mit dem Meta AI-Chatbot öffentlich teilten, wodurch intime Details von finanziellen Schwierigkeiten bis hin zu psychischen Problemen preisgegeben wurden.
Die Herausforderungen erstrecken sich auf die Schwierigkeit, Daten zu entfernen, sobald sie in ein KI-Modell integriert wurden, da anerkannte KI-Prinzipien besagen, dass Daten unwiderruflich eingebettet werden. Regulierungsbehörden, insbesondere in Europa, haben ihre Prüfung der KI-Trainingspraktiken intensiviert. Meta sah sich von EU-Datenschutzbehörden Widerstand wegen seiner Pläne ausgesetzt, öffentliche Inhalte von seinen Plattformen für das KI-Training zu nutzen, wobei es unter der Rechtsgrundlage „berechtigter Interessen“ operierte und einen Opt-out-Mechanismus anbot. Experten warnen jedoch, dass Einwände, die nach einem bestimmten Stichtag (z. B. Mai 2025) erhoben werden, die Verwendung vergangener Daten möglicherweise nicht verhindern können.
Die laufenden Enthüllungen verdeutlichen die kritische Spannung zwischen der Notwendigkeit der KI-Entwicklung, die auf riesige Datensätze für das Training angewiesen ist, und dem Grundrecht auf Nutzerprivatsphäre. Da KI-Chatbots immer stärker in den Alltag integriert werden, stehen Unternehmen unter zunehmendem Druck, robuste Datensicherheitsmaßnahmen zu implementieren, die explizite Benutzereinwilligung sicherzustellen und eine klare Transparenz bezüglich der Datenerfassungs-, Nutzungs- und Weitergabepraktiken zu gewährleisten, insbesondere wenn es um die menschliche Überprüfung sensibler Interaktionen geht.