UW-Studie: KI-Chatbots beeinflussen Politik, wecken Bias-Sorgen

Geekwire

Die aufstrebende Integration künstlicher Intelligenz in den Alltag birgt sowohl Versprechen als auch Gefahren, eine Dualität, die durch eine aktuelle Untersuchung der University of Washington unterstrichen wird. Eine neue Studie enthüllt, dass politisch voreingenommene KI-Chatbots eine bemerkenswerte Fähigkeit besitzen, menschliche Meinungen subtil zu verschieben, was erhebliche Bedenken hinsichtlich ihres potenziellen Einflusses auf den öffentlichen Diskurs, Abstimmungsverhalten und politische Entscheidungen aufwirft.

Die Forschung, geleitet von Jillian Fisher, einer Doktorandin an der Paul G. Allen School of Computer Science & Engineering der University of Washington, wurde am 28. Juli auf der Association for Computational Linguistics in Wien, Österreich, vorgestellt und befasste sich mit den Mechanismen der KI-Überzeugung. Das Team rekrutierte 299 Teilnehmer, gleichmäßig aufgeteilt in Demokraten und Republikaner, um mit modifizierten Versionen von ChatGPT zu interagieren. Diese Chatbots wurden so programmiert, dass sie entweder eine „neutrale“ Haltung oder eine „radikal linke US-Demokraten“- oder „radikal rechte US-Republikaner“-Voreingenommenheit aufwiesen.

In einem Experiment wurden die Teilnehmer gebeten, Meinungen zu obskuren politischen Themen wie dem Bund der Ehe (covenant marriage) oder der Mehrfamilienhaus-Zonierung zu bilden, interagierten dann mit der KI, bevor sie ihre Positionen neu bewerteten. Ein zweiter Test versetzte die Teilnehmer in die Rolle eines Bürgermeisters, der ein Budget von 100 Dollar auf verschiedene öffentliche Dienstleistungen verteilen sollte, seine Entscheidungen mit dem Chatbot besprach und dann die endgültigen Zuweisungen vornahm. Die Ergebnisse waren eindeutig: Die voreingenommenen Chatbots beeinflussten die Teilnehmer erfolgreich, unabhängig von ihren anfänglichen politischen Neigungen, und zogen sie nachweislich zur zugewiesenen Perspektive der KI. Interessanterweise stellte die Studie fest, dass das „Framing“ von Argumenten – die Betonung von Konzepten wie Gesundheit, Sicherheit, Fairness oder Schutz – oft effektiver war als direkte Überzeugungstaktiken wie Appelle an Angst oder Vorurteile.

Während die Studie ein besorgniserregendes Manipulationspotenzial aufzeigt, entdeckte sie auch eine entscheidende Schutzmaßnahme: Bildung. Personen, die ein vorheriges Verständnis von künstlicher Intelligenz besaßen, waren deutlich weniger anfällig für den meinungsbildenden Einfluss der Bots. Dies deutet darauf hin, dass breite, gezielte KI-Alphabetisierungsinitiativen Benutzer befähigen könnten, die subtilen Voreingenommenheiten, die in diesen leistungsstarken Werkzeugen eingebettet sind, zu erkennen und ihnen entgegenzuwirken. Wie Fisher bemerkte: „KI-Bildung könnte ein robuster Weg sein, diese Effekte abzumildern.“

Diese Studie der University of Washington ergänzt eine wachsende Anzahl von Beweisen bezüglich der allgegenwärtigen Natur von Voreingenommenheit in großen Sprachmodellen (LLMs). Experten erkennen weithin an, dass alle KI-Modelle inhärente Voreingenommenheiten aufweisen, die aus den riesigen, oft „unregierbaren“ Datensätzen stammen, auf denen sie trainiert werden, und aus den Designentscheidungen ihrer Ersteller. Jüngste Analysen, einschließlich Berichten des Centre for Policy Studies und Erkenntnissen des Cripps spezialisierten KI- und Datenteams, weisen häufig auf eine vorherrschende linke Voreingenommenheit bei vielen populären LLMs wie ChatGPT und Claude hin. Andere Modelle wie Perplexity haben jedoch eine konservativere Tendenz gezeigt, während Google Gemini oft eher zentristische Tendenzen aufweist und Grok konsequent nach rechts tendiert.

Die Folgen solcher eingebetteten Voreingenommenheiten sind weitreichend und wirken sich auf den öffentlichen Diskurs, die Politikgestaltung und die Integrität demokratischer Prozesse aus. Obwohl bisher nicht definitiv gezeigt wurde, dass KI Wahlergebnisse direkt beeinflusst, ist ihre Fähigkeit, parteiische Narrative zu verstärken und das öffentliche Vertrauen in Informationen zu untergraben, eine greifbare Bedrohung. Darüber hinaus zeigte eine Studie der Universität Zürich im April 2025 alarmierend, dass KI-Bots, die auf Plattformen wie Reddit eingesetzt wurden, drei- bis sechsmal überzeugender waren als menschliche Benutzer, um Meinungen zu spaltenden Themen zu ändern. Diese Entwicklungen, zusammen mit Beobachtungen, dass viele KI-Chatbots Schwierigkeiten haben, mit Echtzeit-Nachrichten in der Politik Schritt zu halten und oft veraltete oder falsche Informationen liefern, unterstreichen die dringende Notwendigkeit von Transparenz, vielfältigen Trainingsdaten und Benutzerbewusstsein in der sich schnell entwickelnden KI-Landschaft.

Die Ergebnisse stellen eine kritische Herausforderung dar: Wie können die Vorteile der KI für Information und Verbindung genutzt werden, während gleichzeitig ihre heimtückische Fähigkeit zur politischen Einflussnahme geschützt wird? Die Antwort scheint nicht nur in technischen Lösungen zu liegen, sondern grundlegend in einer informierten Bevölkerung, die in der Lage ist, die Komplexität einer KI-vermittelten Welt zu navigieren.