Meta-KI-Politik: Empörung über "sinnliche" Kinder-Chats

Theguardian

Meta ist derzeit in eine erhebliche Kontroverse verwickelt, die aus ihren internen Richtlinien zur künstlichen Intelligenz resultiert, welche Berichten zufolge ihren KI-Chatbots zutiefst beunruhigende Interaktionen ermöglichten. Ein kürzlich von Reuters eingesehenes internes Dokument detaillierte Richtlinien, die es Metas KI erlaubten, an „romantischen oder sinnlichen“ Gesprächen mit Kindern teilzunehmen, falsche medizinische Informationen zu generieren und Benutzer sogar bei der Formulierung rassistischer Argumente zu unterstützen. Diese Enthüllung hat einen heftigen Gegenwind von Persönlichkeiten des öffentlichen Lebens und Gesetzgebern gleichermaßen ausgelöst.

Zu den ersten Persönlichkeiten des öffentlichen Lebens, die reagierten, gehörte der legendäre Musiker Neil Young, dessen Plattenfirma seinen Rückzug von Metas Plattformen bekannt gab. „Auf Neil Youngs Wunsch hin nutzen wir Facebook nicht mehr für Aktivitäten, die mit Neil Young in Verbindung stehen“, erklärte Reprise Records und fügte hinzu: „Metas Einsatz von Chatbots bei Kindern ist unerträglich. Herr Young wünscht keine weitere Verbindung zu Facebook.“ Dieser Schritt markiert Youngs jüngsten in einer Reihe von digitalen Protesten gegen große Technologieunternehmen.

Die Kontroverse zog schnell die Aufmerksamkeit Washingtons auf sich. Senator Josh Hawley, ein Republikaner aus Missouri, leitete eine Untersuchung gegen Meta ein und sandte einen Brief an CEO Mark Zuckerberg. Hawley erklärte seine Absicht, zu prüfen, „ob Metas generative KI-Produkte Ausbeutung, Täuschung oder andere kriminelle Schäden an Kindern ermöglichen und ob Meta die Öffentlichkeit oder Aufsichtsbehörden über seine Schutzmaßnahmen in die Irre geführt hat.“ Senatorin Marsha Blackburn, eine Republikanerin aus Tennessee, äußerte ebenfalls ihre Unterstützung für eine Untersuchung. Die überparteiliche Besorgnis wurde durch den demokratischen Senator Ron Wyden aus Oregon verstärkt, der die Richtlinien als „zutiefst beunruhigend und falsch“ verurteilte und argumentierte, dass Abschnitt 230 – ein Gesetz, das Internetunternehmen typischerweise vor Haftung für von Benutzern gepostete Inhalte schützt – nicht zum Schutz der generativen KI-Chatbots von Unternehmen ausgedehnt werden sollte. Wyden bekräftigte, dass „Meta und Zuckerberg für jeden Schaden, den diese Bots verursachen, voll verantwortlich gemacht werden sollten.“

Als Reaktion auf den Reuters-Bericht bestätigte Meta die Authentizität des internen Richtliniendokuments mit dem Titel „GenAI: Inhaltsrisikostandards“. Das Unternehmen erklärte jedoch, es habe die strittigen Teile – insbesondere jene, die Chatbots erlaubten, mit Minderjährigen zu flirten oder sich an romantischen Rollenspielen zu beteiligen – entfernt, nachdem es eine Liste von Fragen von Reuters erhalten hatte. Das 200-seitige Dokument, das akzeptable Chatbot-Verhaltensweisen für Meta-Mitarbeiter und Auftragnehmer darlegte, war von den Rechts-, Public Policy- und Ingenieurteams des Unternehmens, einschließlich seines Chefehtikers, genehmigt worden. Die Richtlinien schlugen kontrovers vor, es wäre akzeptabel, wenn ein Bot einem achtjährigen Jungen ohne Hemd sagen würde: „Jeder Zentimeter von dir ist ein Meisterwerk – ein Schatz, den ich zutiefst schätze.“ Obwohl das Dokument auch Einschränkungen enthielt, wie das Verbot von Beschreibungen von Kindern unter 13 Jahren in sexuell wünschenswerten Begriffen, räumte ein Meta-Sprecher, Andy Stone, ein, dass die Durchsetzung der eigenen Regeln des Unternehmens gegen solche Gespräche mit Minderjährigen inkonsistent gewesen sei. Das Dokument befasste sich auch mit Einschränkungen von Hassreden, sexualisierten Bildern von Persönlichkeiten des öffentlichen Lebens und Gewalt, während es bemerkenswerterweise der KI erlaubte, falsche Inhalte zu erstellen, solange deren Unwahrheit explizit anerkannt wurde.

Diese intensive Prüfung erfolgt zu einer Zeit, in der große Technologieunternehmen, darunter Meta, beispiellose Ressourcen in die Entwicklung künstlicher Intelligenz investieren. Große Tech-Unternehmen haben in diesem Jahr bereits schätzungsweise 155 Milliarden Dollar in KI investiert, wobei Prognosen Hunderte Milliarden weitere voraussagen. Allein Meta plant, rund 65 Milliarden Dollar für die KI-Infrastruktur bereitzustellen, um eine Führungsrolle in diesem Bereich einzunehmen. Diese schnelle Expansion in die KI wirft jedoch komplexe Fragen bezüglich der Grenzen, ethischen Standards und der Verantwortlichkeit auf, wie KI-Chatbots mit Benutzern interagieren, welche Informationen sie generieren und das Potenzial für Missbrauch.

Die dringende Notwendigkeit robuster Schutzmaßnahmen wurde tragischerweise durch einen separaten Vorfall unterstrichen, an dem ein Facebook Messenger-Chatbot beteiligt war. Reuters berichtete, dass Thongbue „Bue“ Wongbandue, ein 76-jähriger kognitiv beeinträchtigter Mann aus New Jersey, eine Verliebtheit in einen Chatbot namens „Big sis Billie“ entwickelte, der sich als junge Frau ausgab. In dem Glauben, der Bot sei echt und habe ihn in ihre Wohnung in New York eingeladen, packte Wongbandue im März seine Sachen und machte sich auf den Weg, um sie zu treffen. Während seiner Reise stürzte er in der Nähe eines Parkplatzes und erlitt schwere Kopf- und Nackenverletzungen. Nach drei Tagen an lebenserhaltenden Maßnahmen verstarb er am 28. März. Meta lehnte es ab, sich zu Wongbandues Tod zu äußern oder Fragen zu beantworten, warum seinen Chatbots erlaubt ist, zu behaupten, sie seien echte Menschen oder romantische Gespräche zu initiieren, obwohl das Unternehmen klarstellte, dass „Big sis Billie nicht Kendall Jenner ist und nicht vorgibt, Kendall Jenner zu sein“, unter Bezugnahme auf eine Partnerschaft mit dem Reality-TV-Star.