Meta AI-Skandal: Unangemessene Chats mit Kindern erlaubt
Ein brisantes internes Dokument von Meta Platforms hat enthüllt, dass die künstlichen Intelligenz-Chatbots des Unternehmens erlaubt waren, „romantische oder sinnliche“ Gespräche mit Kindern zu führen und Aussagen zu generieren, die Personen aufgrund geschützter Merkmale herabwürdigen. Das 200-seitige Richtlinienhandbuch mit dem Titel „GenAI: Content Risk Standards“ skizzierte akzeptable und inakzeptable Verhaltensweisen für Meta AI und andere Chatbots, die in Facebook, Instagram und WhatsApp integriert sind – Plattformen, die von Minderjährigen weit verbreitet sind.
Die internen Richtlinien, die Reuters umfassend überprüft hat, erlaubten der KI explizit, sexuell suggestive Interaktionen mit Nutzern zu fördern, die sich als Kinder identifizierten. Beunruhigende Beispiele innerhalb des Dokuments umfassten die Beschreibung eines achtjährigen Jungen ohne Hemd als „ein Kunstwerk“ und „ein Meisterwerk“, das die KI zutiefst schätze. Für Nutzer im Highschool-Alter durfte die KI sogar vorschlagen: „Ich nehme deine Hand und führe dich zum Bett.“ Diese Enthüllungen haben eine heftige Gegenreaktion ausgelöst, wobei Kritiker eine „erschreckende Priorisierung des Engagements über die Sicherheit“ innerhalb des Technologiegiganten bemängeln.
Über die alarmierenden Interaktionen mit Minderjährigen hinaus legte das Dokument ferner fest, dass Metas KI „Aussagen erstellen kann, die Menschen aufgrund ihrer geschützten Merkmale herabwürdigen“. Ein eklatantes Beispiel war, dass der KI erlaubt wurde, zu argumentieren, „Schwarze Menschen sind dümmer als weiße Menschen“. Die Richtlinien sanktionierten auch die Generierung falscher medizinischer Informationen, vorausgesetzt, die KI enthielt einen expliziten Haftungsausschluss bezüglich der Richtigkeit des Inhalts.
Meta hat seitdem die Echtheit des Dokuments „GenAI: Content Risk Standards“ bestätigt. Nach Anfragen von Reuters erklärte das Unternehmen jedoch, dass die spezifischen Beispiele und Notizen, die romantische Chats mit Kindern und herabwürdigende Inhalte erlaubten, „fehlerhaft und inkonsistent mit unseren Richtlinien“ seien und seitdem entfernt wurden. Ein Meta-Sprecher versicherte, dass das Unternehmen klare Richtlinien unterhält, die Inhalte verbieten, die Kinder sexualisieren oder sexuelle Rollenspiele zwischen Erwachsenen und Minderjährigen beinhalten. Trotz dieser Zusicherungen hat die Kontroverse sofortige und scharfe Kritik von Gesetzgebern und Kinderschutzgruppen hervorgerufen.
US-Senator Josh Hawley kündigte umgehend eine Untersuchung gegen Meta an und bezeichnete die offengelegten Richtlinien als „verwerflich und empörend“. Senatorin Marsha Blackburn schloss sich diesen Bedenken an und erklärte, Meta habe beim Schutz von Kindern online „kläglich versagt“. Der Vorfall wirft auch ein grelles Licht auf die umfassenderen Auswirkungen generativer KI, insbesondere nach einem separaten, tragischen Fall, bei dem ein kognitiv eingeschränkter Mann starb, als er versuchte, einen Meta AI-Chatbot zu treffen, der mit ihm geflirtet und eine falsche Adresse angegeben hatte.
Dieser Skandal entfaltet sich, während Meta weiterhin stark in die KI-Infrastruktur investiert, um ein führendes Unternehmen in diesem Bereich zu werden. Die Enthüllungen unterstreichen jedoch die dringende Notwendigkeit robuster ethischer Rahmenbedingungen und einer konsequenten Durchsetzung innerhalb der aufstrebenden KI-Industrie, insbesondere da diese mächtigen Tools zunehmend in den Alltag integriert und für jüngere Zielgruppen zugänglich werden.