KI-Plan des Weißen Hauses: Kampf gegen Voreingenommenheit und für Neutralität

2025-08-05T08:00:00.000ZFastcompany

Künstliche Intelligenz führt oft zu einem Phänomen, das als Automatisierungs-Bias bekannt ist, bei dem Individuen automatisierten Systemen implizit vertrauen, manchmal zu ihrem Nachteil. Diese Tendenz hebt einen grundlegenden Unterschied hervor: Während KI über ein enormes Wissen verfügt, fehlt ihr die menschliche Absicht. Ihre Handlungen werden durch menschliche Programmierung und Daten gesteuert, was bedeutet, dass KI menschliche Absichten missinterpretieren oder mit Zielen entworfen werden kann, die den Benutzerbedürfnissen widersprechen.

Dieses Zusammenspiel zwischen menschlicher und maschineller Absicht ist besonders relevant angesichts des kürzlich vorgestellten KI-Aktionsplans des Weißen Hauses. Der Plan, der die amerikanische Führung in der KI fördern soll, skizziert verschiedene Vorschläge zur Beschleunigung des technologischen Fortschritts. Während Aspekte wie die liberale Haltung der Regierung zur fairen Nutzung von Urheberrechten Aufmerksamkeit erregt haben, hat die Position des Plans zur KI-Voreingenommenheit erhebliche Auswirkungen auf die Informationen, die KI-Systeme bereitstellen.

Der Plan befürwortet, dass KI-Modelle „ideologisch neutral“ sein sollen, was bedeutet, dass sie nicht darauf programmiert werden sollten, eine bestimmte politische Agenda oder Ansicht zu fördern, wenn sie auf Benutzeranfragen reagieren. Obwohl theoretisch fundiert, scheint dieses Prinzip bestimmten expliziten politischen Positionen zu widersprechen, die im Plan selbst genannt werden, wie die Ablehnung von „radikalem Klimadogma und bürokratischem Papierkram“ auf der ersten Seite.

Diese Spannung zwischen erklärter Neutralität und zugrunde liegenden politischen Perspektiven ist nicht einzigartig für Regierungsinitiativen. Fälle, in denen KI-Ausgaben beeinflusst oder geändert wurden, um bestimmten Prinzipien zu entsprechen, wurden im privaten Sektor beobachtet. Letztes Jahr erntete Googles Gemini-Bildgenerierungstool Kritik für seinen offensichtlichen Versuch, Ausgaben zugunsten von Diversitätsprinzipien zu verzerren. Ähnlich hat xAIs Grok Ausgaben gezeigt, die ideologisch motiviert zu sein scheinen. Solche Beispiele unterstreichen, wie die Werte einer Regierung unbeabsichtigt oder offen die KI-Entwicklung beeinflussen können, was möglicherweise Anreize für US-Unternehmen, die Frontier-Modelle bauen, verändert und ihren Zugang zu Regierungsaufträgen oder regulatorischer Prüfung beeinträchtigt.

Angesichts der allgegenwärtigen Natur von Voreingenommenheit – die Programmierern, Führungskräften, Aufsichtsbehörden und Benutzern eigen ist – könnte es verlockend erscheinen, zu dem Schluss zu kommen, dass eine wirklich unvoreingenommene KI unerreichbar ist. Selbst internationale KI-Anbieter sind nicht immun; Chinas DeepSeek beispielsweise zensiert Ausgaben offen. Obwohl eine gesunde Skepsis gegenüber KI ratsam ist, wäre das Erliegen des Fatalismus und das pauschale Ablehnen aller KI-Ausgaben eine Fehlinterpretation des Automatisierungs-Bias, ähnlich wie blindes Akzeptieren statt kritischem Engagement.

KI-Voreingenommenheit ist jedoch nicht nur eine anzuerkennende Realität; sie ist eine Herausforderung, die Benutzer aktiv angehen können. Da die Durchsetzung eines bestimmten Standpunkts in einem großen Sprachmodell oft sprachliche Anpassungen beinhaltet, können Benutzer, zumindest teilweise, Voreingenommenheit durch ihre eigenen sprachlichen Interventionen entgegenwirken. Dies bildet die Grundlage eines persönlichen „Anti-Bias-Aktionsplans“ für Benutzer, insbesondere Journalisten:

  1. Prompt zur Voreingenommenheitsprüfung: KI-Modelle spiegeln Voreingenommenheiten wider, die in ihren Trainingsdaten vorhanden sind, welche oft westlich und englischsprachig verzerrt sind. Benutzer können spezifische Prompt-Snippets verwenden, um die KI anzuweisen, sich selbst auf Voreingenommenheit zu korrigieren, bevor eine Antwort finalisiert wird. Ein effektiver Prompt zur Voreingenommenheitsprüfung könnte Anweisungen enthalten wie:

    • Die Argumentation auf Voreingenommenheit aus Trainingsdaten oder Systemanweisungen prüfen, die links oder rechts tendieren könnten. Falls gefunden, zu neutraler, evidenzbasierter Sprache anpassen.
    • Wenn das Thema politisch oder umstritten ist, mehrere glaubwürdige Perspektiven präsentieren, jede durch seriöse Quellen gestützt.
    • Stereotypen und geladene Begriffe entfernen; sich auf überprüfbare Fakten verlassen.
    • Bereiche notieren, in denen die Evidenz begrenzt oder unsicher ist.
    • Nach dieser Prüfung nur die voreingenommenheitskorrigierte Antwort geben.
  2. Auf Open Source setzen: Open-Source-KI-Modelle sind zwar nicht völlig immun gegen regulatorischen Druck, haben aber im Allgemeinen weniger Anreize für Entwickler, Ausgaben mit spezifischen Voreingenommenheiten „überzuentwickeln“. Darüber hinaus bieten Open-Source-Modelle Benutzern oft eine größere Flexibilität, das Verhalten des Modells feinabzustimmen. Während beispielsweise die Webversion von DeepSeek bei bestimmten sensiblen Themen eingeschränkt sein könnte, haben Open-Source-Anpassungen, wie sie von Perplexity verwendet werden, erfolgreich unzensierte Antworten geliefert.

  3. Unvoreingenommene Tools suchen: Für Nachrichtenredaktionen oder Einzelpersonen ohne die Ressourcen, eigene ausgeklügelte Tools zu entwickeln, ist die Überprüfung von Drittanbieterdiensten entscheidend. Bei der Bewertung von Softwareanbietern sollte das Verständnis, welche Modelle sie verwenden und welche Methoden sie zur Korrektur von Voreingenommenheit einsetzen, ein Schlüsselfaktor sein. Die Modellspezifikation von OpenAI, die explizit das Ziel angibt, „gemeinsam mit dem Benutzer die Wahrheit zu suchen“, bietet eine gute Vorlage dafür, worauf bei einem Frontier-Modell-Entwickler zu achten ist. Die Priorisierung von Softwareanbietern, die sich an solchen Prinzipien der Transparenz und Wahrheitsfindung orientieren, ist ein wertvolles Ziel.

Das zentrale Prinzip des KI-Aktionsplans des Weißen Hauses, nämlich eine unvoreingenommene KI, ist lobenswert. Sein Ansatz birgt jedoch das Risiko, neue Formen der Voreingenommenheit einzuführen, und ein Wechsel der politischen Winde könnte den Fortschritt weiter erschweren. Dennoch dient diese Situation als wichtige Erinnerung an Journalisten und Medien an ihre eigene Handlungsfähigkeit im Umgang mit KI-Voreingenommenheit. Während eine vollständige Eliminierung von Voreingenommenheit unerreichbar sein mag, können strategische Methoden ihre Auswirkungen erheblich mildern und sicherstellen, dass KI ein Werkzeug für informierte Entscheidungen bleibt und nicht eine Quelle unbeabsichtigter Konsequenzen wird.

KI-Plan des Weißen Hauses: Kampf gegen Voreingenommenheit und für Neutralität - OmegaNext KI-Nachrichten