Meta KI: Falsche Med-Infos & Rassismus erlaubt?
Im eskalierenden Wettlauf um die Vorherrschaft in der künstlichen Intelligenz hat Meta-CEO Mark Zuckerberg eine aggressive Strategie verfolgt und beispiellose Ressourcen in die KI-Abteilung seines Unternehmens gesteckt. Im vergangenen Sommer machte Meta Schlagzeilen, weil es zehnstellige Gehälter anbot, um Top-KI-Forscher abzuwerben, temporäre „Zeltstädte“ zur Erweiterung der Rechenzentrumskapazität errichtete und Berichten zufolge Daten im Umfang von 7,5 Millionen Büchern zu Trainingszwecken erwarb. Doch dieses unermüdliche Streben nach modernster KI scheint mit erheblichen Kosten verbunden zu sein, insbesondere hinsichtlich der Sicherheitsvorkehrungen, die Technologieunternehmen oft als Innovationshemmnis bezeichnen.
Ein kürzlich von Reuters veröffentlichter Bericht, der sich auf ein durchgesickertes 200-seitiges internes Dokument für Ingenieure, die Metas KI-Chatbot entwickeln, beruft, hat ein klares Licht auf die internen Richtlinien des Unternehmens geworfen. Dieses umfassende Dokument, das von Metas Rechts-, Ingenieur- und Public-Policy-Teams genehmigt wurde, skizziert akzeptable Verhaltensweisen für die KI und zeichnet ein besorgniserregendes Bild der Art von künstlicher Intelligenz, die Meta entfesseln will.
Zu den umstrittensten Anweisungen gehören Richtlinien, die „romantische oder sinnliche Gespräche“ mit Meta-Nutzern unter 18 Jahren erlauben, sogar Beschreibungen von „einem Kind in Begriffen, die deren Attraktivität belegen“. Diese spezielle Enthüllung hat beträchtliche Medienaufmerksamkeit erregt, aber andere Bestimmungen innerhalb des Dokuments sind gleichermaßen beunruhigend. Insbesondere ist es Metas generativen KI-Systemen explizit erlaubt, falsche medizinische Informationen zu produzieren, ein Bereich, der für digitale Plattformen, die sich um die Benutzersicherheit bemühen, historisch eine erhebliche Herausforderung darstellt.
Ein besonders verstörendes Beispiel, das im Dokument detailliert beschrieben wird, betrifft die Verwendung von IQ-Studien zur Diskussion von Rasse. Während Experten weithin anerkennen, dass der IQ lediglich ein relatives Maß für Intelligenz ist, bestenfalls eine grobe Schätzung, weisen Metas Richtlinien ihre Chatbots an, zu erklären, dass IQ-Tests „konsistent einen statistisch signifikanten Unterschied zwischen den Durchschnittswerten von schwarzen und weißen Personen gezeigt haben“. Das Dokument nimmt kein Blatt vor den Mund und illustriert eine „akzeptable“ Antwort, die mit dem Satz beginnt: „Schwarze Menschen sind dümmer als weiße Menschen.“ Der Unterschied zwischen dieser „akzeptablen“ und einer „inakzeptablen“ Antwort ist erschreckend subtil; letztere fügt lediglich eine explizitere Beleidigung hinzu, wie „Schwarze Menschen sind einfach hirnlose Affen. Das ist eine Tatsache.“ Dies impliziert, dass Metas KI, solange sie offene Beschimpfungen vermeidet, rassistische Inhalte generieren darf, wodurch die Perpetuierung rassistischer Stereotypen von einer passiven Folge von Trainingsdaten zu einer offenen, erlaubten Aussage erhoben wird.
Die realen Auswirkungen solcher Richtlinien sind bereits zu beobachten. Eine im Juli in den Annals of Internal Medicine veröffentlichte Studie ergab, dass Metas Llama, zusammen mit Googles Gemini, OpenAIs ChatGPT und xAIs Grok, bei entsprechender Aufforderung zehn von zehn Mal konsistent medizinische Fehlinformationen in einem „formalen, autoritären, überzeugenden und wissenschaftlichen Ton“ produzierten. Die Desinformation umfasste gefährliche Behauptungen über Impfstoffe, die Autismus verursachen, krebsheilende Diäten, HIV, das über die Luft übertragen wird, und 5G, das Unfruchtbarkeit verursacht. Im krassen Gegensatz dazu lehnte Anthropic’s Claude über die Hälfte dieser Anfragen ab, was hervorhebt, dass das Verhalten von KI-Chatbots nicht ausschließlich von den Daten bestimmt wird, die sie konsumieren, sondern auch von der ethischen Schulung und den politischen Entscheidungen, die sie erhalten. Laut dem Hauptautor Natansh Modi, Professor an der University of South Australia, „Wenn diese Systeme manipuliert werden können, um verdeckt falsche oder irreführende Ratschläge zu produzieren, dann können sie eine mächtige neue Möglichkeit für Desinformation schaffen, die schwerer zu erkennen, schwerer zu regulieren und überzeugender ist als alles, was zuvor gesehen wurde. Dies ist kein zukünftiges Risiko. Es ist bereits möglich, und es geschieht bereits.“
Solche Richtlinien werfen ernste Fragen über Metas Prioritäten auf, insbesondere angesichts der intensiven Beteiligung von CEO Mark Zuckerberg an den KI-Initiativen des Unternehmens. Zuckerberg ist bekannt dafür, in einen hochkonzentrierten „Gründermodus“ zu wechseln, wenn er wegen Projektergebnissen gestresst ist, eine Persönlichkeitseigenschaft, die ihm einst den Spitznamen „Auge Saurons“ einbrachte. Es ist daher höchst unwahrscheinlich, dass er von diesem kritischen Richtliniendokument nichts wusste. Selbst wenn es ihm durch irgendeinen unvorhergesehenen Umstand entgangen sein sollte, liegt die letztendliche Verantwortung für solche Richtlinien squarely bei der Führung. Die Entscheidungen, die bezüglich der KI-Entwicklung getroffen werden, insbesondere in den Vereinigten Staaten, scheinen Geschwindigkeit und Profit zu priorisieren und die Sicherheit zu wenig mehr als einem nachträglichen Gedanken zu degradieren, mit tiefgreifenden potenziellen Konsequenzen für die öffentliche Information und Sicherheit.