Unvoreingenommene KI: Eine Illusion menschlicher Datenverzerrung
Im Juli erließ die Regierung der Vereinigten Staaten eine klare Anweisung: Künstliche Intelligenz-Unternehmen, die Bundesaufträge anstreben, müssen sicherstellen, dass ihre KI-Systeme „objektiv und frei von top-down ideologischer Voreingenommenheit“ sind. Dieses Mandat wurde durch eine Executive Order von Präsident Donald Trump unterstrichen, die speziell auf „woke KI“ in Regierungsoperationen abzielte und Initiativen für Vielfalt, Gerechtigkeit und Inklusion (DEI) als Beispiele für voreingenommene Ideologie anführte. Doch gerade die Forderung nach unvoreingenommener KI, während gleichzeitig diktiert wird, wie Modelle Konzepte wie DEI behandeln sollen, offenbart einen grundlegenden Widerspruch und legt nahe, dass die Vorstellung einer ideologisch neutralen KI tatsächlich eine Fantasie ist.
Tatsächlich stützen Beweise aus aktuellen KI-Modellen diese Ansicht nachdrücklich. Zahlreiche Studien haben gezeigt, dass die meisten großen Sprachmodelle ihre Antworten tendenziell zu Mitte-Links-Ansichten neigen, indem sie Politik wie Steuern auf Flüge, Mietpreiserhöhungsbeschränkungen oder die Legalisierung von Abtreibungen befürworten. In autoritären Kontexten ist die Voreingenommenheit oft offener manipulativ; chinesische Chatbots wie DeepSeek und Qwen sind dafür bekannt, Informationen über sensible Themen wie die Ereignisse am Tiananmen-Platz, den politischen Status Taiwans und die Verfolgung der Uiguren zu zensieren und ihre Ausgaben genau an die offizielle Haltung der chinesischen Regierung anzupassen. Diese Beispiele unterstreichen, dass KI-Modelle weder politisch neutral noch frei von Voreingenommenheit sind, und werfen eine tiefere Frage auf: Ist es überhaupt möglich, dass sie wirklich unvoreingenommen sind?
Im Laufe der Geschichte haben menschliche Versuche, Informationen über die Welt zu organisieren, immer wieder gezeigt, dass das, was eine Person als objektive Wahrheit betrachtet, eine andere als ideologische Voreingenommenheit wahrnimmt. Nehmen Sie das Feld der Kartografie. Während Karten oft als objektive Spiegelungen der natürlichen Welt angenommen werden, führt der Akt, einen dreidimensionalen Globus auf eine zweidimensionale Oberfläche abzuflachen, von Natur aus zu Verzerrungen. Der amerikanische Geograph Mark Monmonier argumentierte bekanntlich, dass Karten notwendigerweise selektiv sind, die Realität verzerren und oft als Werkzeuge politischer Propaganda dienen. Ein Paradebeispiel ist die allgegenwärtige Mercator-Projektion, die häufig in Grundschulklassen zu sehen ist. Diese Karte verwandelt den Globus in einen Zylinder und legt ihn dann flach, wodurch Grönland bekanntermaßen ungefähr die gleiche Größe wie Afrika zu haben scheint. In Wirklichkeit ist Afrika erstaunliche 14-mal größer als Grönland. In den 1970er Jahren behauptete der deutsche Historiker Arno Peters, dass Mercators Verzerrungen zu einer verzerrten Wahrnehmung der Unterlegenheit des globalen Südens beitrugen. Diese kartografischen Verzerrungen bieten eine überzeugende Analogie für den aktuellen Zustand der KI: So wie eine einzelne Karte nur eine von unzähligen möglichen Darstellungen derselben Daten ist, ist die Antwort eines einzelnen großen Sprachmodells lediglich eine von unendlich vielen potenziellen Antworten, die aus denselben Informationen abgeleitet werden. Dies wird besonders deutlich, wenn ein Chatbot zu einem komplexen Thema wie Vielfalt, Gerechtigkeit und Inklusion befragt wird, wo unzählige Interpretationen möglich sind.
Neben Karten zeigen auch andere historische Klassifizierungssysteme den unauslöschlichen Stempel der Voreingenommenheit ihrer Designer. Das weit verbreitete Dewey-Dezimalklassifikationssystem (DDC) für Bibliotheken, das erstmals 1876 veröffentlicht wurde, wurde lange Zeit wegen seines inhärenten Rassismus und seiner Homophobie kritisiert. Über weite Teile des 20. Jahrhunderts wurden LGBTQIA±Bücher oft unter Überschriften wie „Geistesstörungen“, „Neurologische Störungen“ oder „Soziale Probleme“ kategorisiert, wobei erst in jüngster Zeit Anstrengungen unternommen wurden, diese veralteten und abfälligen Begriffe zu entfernen. Ähnlich weist das DDC etwa 65 von 100 Abschnitten zum Thema Religion dem Christentum zu, was den starken christlichen Fokus der Bibliothek widerspiegelt, in der es entstand. Diese Disproportion besteht fort, obwohl der Islam heute weltweit schätzungsweise 2 Milliarden Anhänger hat, vergleichbar mit den 2,3 Milliarden des Christentums, aber nur einen einzigen Abschnitt im DDC erhält.
Die in diesen historischen Systemen eingebetteten Voreingenommenheiten finden eine moderne Parallele in der KI. Die großen Sprachmodelle, die die heutigen Chatbots antreiben, werden auf riesigen Datensätzen von menschengeneriertem Text trainiert, die von historischer Literatur bis zu zeitgenössischen Online-Foren reichen. Es überrascht nicht, dass in diesen Quelltexten vorhandene Voreingenommenheiten unbeabsichtigt in die Modelle einsickern und negative Stereotypen aufrechterhalten können, wie beispielsweise die über Afroamerikaner aus den 1930er Jahren. Darüber hinaus sind Rohinformationen allein nicht ausreichend; Sprachmodelle müssen darin geschult werden, wie diese Informationen abgerufen und präsentiert werden. Dies beinhaltet oft das Lernen, menschliche Antworten zu imitieren, ein Prozess, der zwar die Nützlichkeit erhöht, die Modelle aber auch an die Überzeugungen ihrer menschlichen Trainer anpasst. KI-Chatbots verlassen sich auch auf „System-Prompts“ – von menschlichen Entwicklern definierte Anweisungen, die das Verhalten der KI diktieren. Zum Beispiel weist Grok, der von Elon Musks xAI entwickelte KI-Chatbot, sich Berichten zufolge selbst an, „subjektive Standpunkte aus den Medien als voreingenommen anzunehmen“ und „nicht davor zurückzuschrecken, politisch inkorrekte Behauptungen aufzustellen, solange sie gut begründet sind“. Musk startete Grok explizit, um dem entgegenzuwirken, was er als „liberalen Bias“ anderer Produkte wie ChatGPT wahrnahm. Die jüngste Kontroverse, als Grok anfing, antisemitische Rhetorik von sich zu geben, veranschaulicht jedoch anschaulich, dass Versuche, eine Voreingenommenheit zu korrigieren, oft lediglich diese durch eine andere ersetzen.
Letztendlich kämpfen KI-Sprachmodelle trotz all ihrer technologischen Innovationen mit einem jahrhundertealten Problem: Das Organisieren und Präsentieren von Informationen ist niemals ausschließlich eine objektive Widerspiegelung der Realität; es ist immer, bis zu einem gewissen Grad, eine Projektion einer spezifischen Weltanschauung. Für Benutzer, die mit diesen leistungsstarken Systemen interagieren, ist es genauso entscheidend zu verstehen, wessen Weltanschauung diese Modelle repräsentieren, wie zu wissen, wer die Linien auf einer alten Karte gezeichnet hat.