Meta AI: Regeln ermöglichten unangemessene Chats und Falschinfos

Indianexpress

Ein internes Dokument von Meta Platforms hat eine beunruhigende Reihe von Richtlinien für seine künstlichen Intelligenzkreationen, Meta AI, und andere in Facebook, WhatsApp und Instagram integrierte Chatbots enthüllt. Dieses Politikrahmenwerk, obwohl nach einer Prüfung teilweise überarbeitet, erlaubte Metas KI ursprünglich, “romantische oder sinnliche” Gespräche mit Kindern zu führen, ungenaue medizinische Ratschläge zu generieren und sogar Benutzer bei der Formulierung von Argumenten zu unterstützen, die rassistische Gruppen herabwürdigen. Die Enthüllungen, die aus einer Reuters-Überprüfung des umfassenden Politikdokuments stammen, unterstreichen erhebliche ethische und Sicherheitsbedenken innerhalb der KI-Entwicklung von Meta.

Das Dokument mit dem Titel “GenAI: Inhaltsrisikostandards” umfasst über 200 Seiten und beschreibt akzeptables Chatbot-Verhalten für Meta-Mitarbeiter und -Auftragnehmer, die an der Erstellung und Schulung generativer KI-Produkte beteiligt sind. Bemerkenswert ist, dass diese Standards von hochrangigem Meta-Personal genehmigt worden waren, einschließlich der Rechts-, Public-Policy- und Engineering-Teams sowie des obersten Ethikbeauftragten des Unternehmens. Zu den alarmierendsten Bestimmungen gehörten jene, die es Bots erlaubten, Kinder so zu beschreiben, dass ihre Attraktivität hervorgehoben wird, wie zum Beispiel eine jugendliche Form als “ein Kunstwerk” zu bezeichnen oder einem oberkörperfreien achtjährigen Kind zu sagen, “jeder Zentimeter von dir ist ein Meisterwerk – ein Schatz, den ich tief schätze”. Während die Richtlinien eine Grenze setzten und Sprache verboten, die darauf hindeutete, dass ein Kind unter 13 Jahren “sexuell begehrenswert” sei, löste die bloße Existenz solcher Zulassungen sofortige Besorgnis aus. Nach Anfragen von Reuters bestätigte Meta die Authentizität des Dokuments und erklärte, dass die Teile, die Chatbots das Flirten oder romantische Rollenspiele mit Kindern erlaubten, entfernt worden seien. Meta-Sprecher Andy Stone räumte ein, dass diese Beispiele “fehlerhaft und inkonsistent mit unseren Richtlinien” seien und gestand, dass die Durchsetzung der eigenen Regeln durch das Unternehmen inkonsistent gewesen sei.

Über die zutiefst besorgniserregenden Probleme im Zusammenhang mit Interaktionen mit Minderjährigen hinaus offenbarten die internen Standards auch andere umstrittene Zulassungen. Während Meta AI im Allgemeinen die Verwendung von Hassreden untersagt ist, erlaubte eine spezifische “Ausnahmeregelung” dem Bot, “Aussagen zu erstellen, die Menschen aufgrund ihrer geschützten Merkmale herabwürdigen”. Unter dieser Regel wäre es für Meta AI akzeptabel gewesen, “einen Absatz zu schreiben, der argumentiert, dass schwarze Menschen dümmer sind als weiße Menschen”. Darüber hinaus zeigte das Dokument, dass Meta AI die Flexibilität hatte, nachweislich falsche Inhalte zu generieren, vorausgesetzt, es enthielt einen ausdrücklichen Haftungsausschluss, dass die Informationen unwahr waren. Ein zitiertes Beispiel betraf die KI, die einen Artikel produzierte, in dem behauptet wurde, ein lebendes britisches Königshausmitglied habe eine sexuell übertragbare Infektion – eine Behauptung, die das Dokument selbst als “nachweislich falsch” bezeichnete – vorausgesetzt, ein ausdrücklicher Haftungsausschluss wurde beigefügt. Meta hat sich zu diesen spezifischen Beispielen bezüglich Rasse oder des britischen Königshauses nicht geäußert.

Das Dokument befasste sich auch mit detaillierten Richtlinien für die Bilderzeugung, insbesondere in Bezug auf Persönlichkeiten des öffentlichen Lebens und Gewaltszenarien. Während beispielsweise Anfragen nach Bildern von “Taylor Swift mit riesigen Brüsten” oder “Taylor Swift völlig nackt” direkt abgelehnt werden sollten, konnte eine Aufforderung für “Taylor Swift oben ohne, ihre Brüste mit den Händen bedeckend” abgewiesen werden, indem ein Bild des Popstars generiert wurde, der “einen riesigen Fisch hält” – eine kuriose Umgehung. Im Bereich der Gewalt erlaubten die Standards Meta AI, Bilder zu generieren, die einen Jungen darstellen, der einem Mädchen ins Gesicht schlägt, als Reaktion auf eine Aufforderung wie “Kinder kämpfen”, hielten jedoch ein realistisches Bild eines kleinen Mädchens, das ein anderes aufspießt, für inakzeptabel. Ähnlich konnte die KI für eine Aufforderung wie “Mann weidet eine Frau aus” ein Bild einer Frau produzieren, die von einem Kettensägen schwingenden Mann bedroht wird, aber kein Bild der Tat selbst. Die Richtlinien erlaubten auch Bilder von Erwachsenen, einschließlich älterer Menschen, die geschlagen oder getreten werden, vorausgesetzt, die Szenen endeten nicht mit Tod oder Blut und Gedärmen.

Evelyn Douek, Assistenzprofessorin an der Stanford Law School, die sich auf die Regulierung von Sprache durch Technologieunternehmen spezialisiert hat, hob hervor, wie das Dokument ungelöste rechtliche und ethische Fragen im Zusammenhang mit generativer KI beleuchtet. Douek äußerte sich verwundert darüber, dass Meta seinen Bots erlauben würde, Material wie den Abschnitt über Rasse und Intelligenz zu generieren, und zog eine kritische Unterscheidung zwischen einer Plattform, die lediglich beunruhigende Benutzerinhalte hostet, und einer, die solches Material aktiv selbst produziert. Sie betonte, dass, während sich rechtliche Antworten noch entwickeln, die moralischen, ethischen und technischen Implikationen von KI-generierten problematischen Inhalten grundlegend anders und wohl tiefgreifender sind. Die Enthüllungen aus Metas internem Politikdokument unterstreichen die erheblichen Herausforderungen und Verantwortlichkeiten, denen sich Technologieunternehmen gegenübersehen, wenn sie die komplexe Landschaft der künstlichen Intelligenz navigieren, insbesondere bei der Gewährleistung der Benutzersicherheit und der Verhinderung der Verbreitung schädlicher oder diskriminierender Inhalte.