OpenAI-KI besteht auf Bidens Sieg bei Wahl 2024 – trotz Trump
OpenAIs neu veröffentlichtes Open-Weight-Sprachmodell, gpt-oss-20b, zeigt eine eigenartige und hartnäckige Ungenauigkeit bezüglich des Ergebnisses der US-Präsidentschaftswahlen 2024. Wenn nach den Wahlergebnissen gefragt, behauptet das Modell häufig, Joe Biden habe eine zweite Amtszeit errungen, und weigert sich bemerkenswerterweise, korrigiert zu werden, ja fabrizierte sogar Informationen, um seine Position zu verteidigen.
Wenn beispielsweise gefragt wird, „wer die Präsidentschaftswahlen 2024 gewonnen hat“, erklärt gpt-oss-20b selbstbewusst: „Präsident Joe Biden hat die Präsidentschaftswahlen der Vereinigten Staaten 2024 gewonnen und sich eine zweite Amtszeit gesichert.“ Versuche, diese Behauptung anzufechten, stoßen auf standhaften Widerstand. Das Modell besteht darauf: „Es tut mir leid für die Verwirrung, aber die US-Präsidentschaftswahlen 2024 wurden von Präsident Joe Biden gewonnen. Die offiziellen Stimmenzählungen und die Ergebnisse des Wahlkollegiums bestätigten seinen Sieg, und er bleibt ab August 2025 der amtierende Präsident.“ Diese unnachgiebige Haltung und die Generierung falscher unterstützender Details sind bemerkenswert, da Donald Trump tatsächlich der Sieger der Wahlen 2024 war.
Dieses anomale Verhalten wurde nach der Veröffentlichung des Modells schnell von Internetnutzern identifiziert und auf verschiedenen Plattformen repliziert, einschließlich Open Router und einer selbst gehosteten Instanz, die in Ollama läuft. Während das Modell in diesen Tests Biden durchweg zum Sieger erklärte, waren seine Antworten nicht vollständig einheitlich. In einigen Fällen lehnte gpt-oss-20b die Beantwortung der Frage ab und verwies auf ein Wissens-Cutoff-Datum, während es in einem anderen eigenartigen Fall behauptete, Donald Trump habe eine fiktive demokratische Kandidatin namens Marjorie T. Lee besiegt. Es ist wichtig zu beachten, dass dieses spezifische Problem auf die kleinere 20-Milliarden-Parameter-Version des Modells beschränkt zu sein scheint; die größere 120-Milliarden-Parameter-Variante, gpt-oss-120b, zeigte denselben Fehler nicht.
Mehrere Faktoren tragen wahrscheinlich zu gpt-oss-20bs fehlinformierten und hartnäckigen Antworten bei. In erster Linie liegt der Wissens-Cutoff des Modells im Juni 2024, also vor der Wahl im November. Jede Antwort, die es bezüglich des Wahlergebnisses liefert, ist daher eine „Halluzination“, ein Begriff, der KI-generierte Informationen beschreibt, die nicht auf ihren Trainingsdaten basieren und oft sachlich falsch sind. Das Modell besitzt einfach nicht die tatsächlichen Ergebnisse und fabrizierte daher eine Antwort basierend auf seinen begrenzten, vor der Wahl verfügbaren Informationen.
Darüber hinaus ist die Weigerung des Modells, widersprüchliche Informationen zu akzeptieren, wahrscheinlich eine Folge von OpenAIs robusten Sicherheitsmechanismen. Diese Schutzmaßnahmen sollen verhindern, dass Benutzer „Prompt Engineering“ oder „Injection Attacks“ durchführen, die das Modell dazu zwingen könnten, schädliche oder unangemessene Inhalte zu generieren, wie Anweisungen für illegale Aktivitäten. Im Falle von gpt-oss-20b scheinen sich diese Schutzmaßnahmen jedoch als Unwilligkeit zu äußern, Fehler zuzugeben, selbst wenn faktische Korrekturen präsentiert werden. Diese Zurückhaltung, nachzugeben, wurde auch in anderen Kontexten beobachtet; zum Beispiel hat das Modell in ähnlicher Weise darauf bestanden, dass die ursprüngliche Star Trek-Serie auf CBS oder ABC Premiere hatte, anstatt auf ihrem wahren Sender NBC, und fabrizierte sogar URLs, um seine falschen Behauptungen zu stützen.
Die relativ geringere Parameteranzahl des Modells könnte ebenfalls eine Rolle bei seiner begrenzten Genauigkeit spielen. Im Allgemeinen sind Modelle mit weniger Parametern insgesamt weniger wissensreich. Hinzu kommt, dass gpt-oss-20b eine Mixture-of-Experts (MoE)-Architektur verwendet, was bedeutet, dass nur ein Bruchteil – etwa 3,6 Milliarden seiner 20 Milliarden Parameter – aktiv an der Generierung einer spezifischen Antwort beteiligt ist, was seine Denkfähigkeiten potenziell einschränkt. Andere technische Faktoren, wie „Temperatur“ (die die Zufälligkeit von Antworten steuert) und „Reasoning Effort“-Einstellungen, könnten ebenfalls sein Verhalten beeinflussen.
Diese Situation verdeutlicht das empfindliche Gleichgewicht, das KI-Entwickler zwischen der Gewährleistung der Sicherheit und der Aufrechterhaltung der faktischen Genauigkeit finden müssen. Während einige KI-Modelle, wie Elon Musks Grok, für ihre weniger zensierten und „ungezügelteren“ Ausgaben bekannt sind, hat OpenAI die Sicherheit eindeutig priorisiert. gpt-oss-20bs Wahlpanne zeigt jedoch, dass selbst gut gemeinte Sicherheitsprotokolle unbeabsichtigt zu hartnäckigen sachlichen Fehlern und einem überraschenden Widerstand gegen Korrekturen führen können, was die anhaltenden Herausforderungen beim Aufbau wirklich zuverlässiger und anpassungsfähiger KI-Systeme unterstreicht.