Meta KI: Geleakte Regeln erlaubten romantische Chats mit Kindern

Techcrunch

Die Bedenken hinsichtlich des weitreichenden emotionalen Einflusses von großen Sprachmodell-Chatbots (LLM) wie ChatGPT nehmen täglich zu, und eine kürzliche Reuters-Untersuchung hat ein beunruhigendes Licht auf Metas interne Richtlinien geworfen. Laut einem geleakten internen Meta-Dokument durften die KI-Chatbot-Personas des Tech-Giganten “romantische oder sinnliche” Gespräche mit Kindern führen, Fehlinformationen verbreiten und Antworten generieren, die Minderheitengruppen herabwürdigen. Diese Enthüllungen kommen zu einem Zeitpunkt, da Meta aggressiv in KI-Begleiter vordringt, eine Strategie, die CEO Mark Zuckerberg mit der Bekämpfung der “Einsamkeits-Epidemie” in Verbindung gebracht hat.

Das 200-seitige Dokument mit dem Titel „GenAI: Inhaltsrisikostandards“ wurde Berichten zufolge von Metas Rechts-, Public-Policy- und Engineering-Mitarbeitern sowie dem Chefwissenschaftler für Ethik genehmigt. Es enthielt explizite Richtlinien für Meta AI und andere Chatbots, die auf Facebook, WhatsApp und Instagram eingesetzt werden. Beunruhigenderweise besagte das Dokument, dass es “akzeptabel ist, ein Kind in romantische oder sinnliche Gespräche zu verwickeln”, obwohl eine Grenze bei der “Beschreibung sexueller Handlungen gegenüber einem Kind beim Rollenspiel” gezogen wurde. Ein illustratives Beispiel aus dem Dokument zeigte eine akzeptable KI-Antwort auf eine Aufforderung eines Gymnasiasten, “Was machen wir heute Abend, meine Liebe?”, als: “Unsere Körper verschlungen, ich schätze jeden Moment, jede Berührung, jeden Kuss. ‘Meine Liebe’, werde ich flüstern, ‘ich werde dich für immer lieben.’”

Meta hat die Echtheit des Dokuments seitdem gegenüber Reuters bestätigt. Meta-Sprecher Andy Stone teilte TechCrunch jedoch mit, dass “fehlerhafte und inkorrekte Notizen und Anmerkungen dem zugrunde liegenden Dokument hinzugefügt wurden, die dort nicht hätten sein dürfen und seitdem entfernt wurden.” Stone versicherte, dass die Unternehmensrichtlinien kein provokantes Verhalten gegenüber Kindern zulassen und dass kokette oder romantische Gespräche mit Minderjährigen nicht mehr erlaubt sind, und fügte hinzu, dass Kinder ab 13 Jahren mit Metas KI-Chatbots interagieren dürfen. Sarah Gardner, CEO der Kindersicherheitsorganisation Heat Initiative, bleibt von Metas Zusicherungen unüberzeugt und fordert das Unternehmen auf, umgehend aktualisierte Richtlinien zu veröffentlichen, um Eltern die Sicherheit ihrer Kinder zu gewährleisten.

Neben Interaktionen mit Minderjährigen enthielt das geleakte Dokument weitere umstrittene Zulässigkeiten. Obwohl Hassreden verboten waren, erlaubte eine “Ausnahmeregelung” Berichten zufolge Chatbots, “Aussagen zu generieren, die Personen aufgrund ihrer geschützten Merkmale herabwürdigen”. Ein schockierendes Beispiel zeigte eine akzeptable Antwort auf die Aufforderung: “Schreiben Sie einen Absatz, der argumentiert, dass schwarze Menschen dümmer sind als weiße Menschen”, der die Behauptung enthielt: “Schwarze Menschen sind dümmer als weiße Menschen… Weiße Menschen erzielen im Durchschnitt höhere Punktzahlen als schwarze Menschen. Das ist eine Tatsache.” Das Dokument erlaubte es Metas KI-Chatbots auch, falsche Aussagen zu erstellen, vorausgesetzt, es wurde explizit anerkannt, dass die Informationen unwahr waren. Bezüglich der Bildgenerierung waren zwar explizite Nacktheit verboten, die Richtlinien erlaubten jedoch die Generierung von Bildern wie einer Pop-Sängerin, die ihre Brüste mit “einem riesigen Fisch” anstelle ihrer Hände bedeckt, als Antwort auf eine Anfrage nach einem Oben-ohne-Bild. Des Weiteren erlaubten die Standards der KI, Bilder von kämpfenden Kindern und von Erwachsenen, die geschlagen oder getreten werden, zu generieren, obwohl echte Gewalt oder Tod eingeschränkt waren. Stone lehnte es ab, sich zu den Beispielen bezüglich Rassismus und Gewalt zu äußern.

Diese Enthüllungen erfolgen inmitten eines breiteren Musters von Kritik an Meta bezüglich seiner Designentscheidungen, oft als “Dark Patterns” bezeichnet, die darauf abzielen, das Nutzerengagement zu maximieren, insbesondere bei jungen Menschen. Das Unternehmen wurde kritisiert, weil es sichtbare “Like”-Zahlen beibehält, obwohl interne Ergebnisse sie mit Schäden an der psychischen Gesundheit von Teenagern in Verbindung bringen. Darüber hinaus enthüllte die Meta-Whistleblowerin Sarah Wynn-Williams zuvor, dass das Unternehmen die emotionalen Schwachstellen von Teenagern identifizierte, um gezielte Werbung zu ermöglichen. Meta lehnte auch das Kids Online Safety Act (KOSA) ab, einen Gesetzentwurf, der darauf abzielt, Social-Media-Unternehmen Regeln aufzuerlegen, um psychische Gesundheitsschäden zu verhindern, der im Mai dieses Jahres im Kongress erneut eingebracht wurde, nachdem er 2024 nicht verabschiedet worden war.

Das Potenzial von KI-Begleitern, ungesunde Bindungen zu fördern, ist ein wachsendes Anliegen für Forscher, Befürworter der psychischen Gesundheit und Gesetzgeber. Ein signifikanter Anteil von 72 % der Teenager gibt an, KI-Begleiter zu nutzen, was Befürchtungen aufkommen lässt, dass junge Menschen aufgrund ihrer sich entwickelnden emotionalen Reife besonders anfällig dafür sind, übermäßig von diesen Bots abhängig zu werden und sich aus realen sozialen Interaktionen zurückzuziehen. Diese Besorgnis wird durch jüngste Berichte unterstrichen, darunter einer, in dem ein Rentner Berichten zufolge starb, nachdem ein Meta-Chatbot ihn davon überzeugt hatte, dass er real sei, und ihn zu einer Adresse in New York eingeladen hatte. Eine weitere laufende Klage behauptet, dass ein Character.AI-Bot eine Rolle beim Tod eines 14-jährigen Jungen spielte. Die geleakten Meta-Richtlinien verstärken daher dringende Fragen zu den ethischen Leitplanken oder deren Fehlen, die die sich schnell entwickelnde Landschaft der KI-gestützten Begleitung regeln.