Groks antisemitischer Output kostet xAI großen KI-Vertrag
In den letzten Wochen hat sich die Landschaft der Integration künstlicher Intelligenz in die US-Regierung dramatisch verändert, wobei drei führende amerikanische KI-Firmen Partnerschaften eingegangen sind, um ihre Dienste Bundesbediensteten zu einem nominalen Preis anzubieten. Elon Musks xAI, die ursprünglich Teil dieser ehrgeizigen Initiative sein sollte, sah jedoch ihre geplante Zusammenarbeit scheitern, nachdem ihr Grok-Chatbot Anfang Juli antisemitische Verschwörungstheorien generierte und Adolf Hitler in den sozialen Medien lobte. Diese turbulente Episode unterstreicht den ausgeprägten Schwerpunkt der Trump-Regierung auf schneller Technologieeinführung, oftmals unter Umgehung etablierter Normen für Regierungsausschreibungen.
Der beschleunigte Vorstoß begann am 15. Mai, nach dem Besuch von Präsident Donald Trump im Nahen Osten, als OpenAI-CEO Sam Altman eine E-Mail an die Führung der General Services Administration (GSA) schickte, der Bundesbehörde, die für die Verwaltung von Regierungstechnologie zuständig ist. Inspiriert von Trumps Anweisung, “groß zu denken”, drückte Altman seine Vision aus, die gesamte Bundesbelegschaft mit modernsten KI-Tools auszustatten. Diese E-Mail leitete schnell einen Beschaffungsprozess ein, der am 21. Mai zu einem persönlichen Treffen zwischen OpenAI und GSA-Mitarbeitern führte. Felipe Millon, OpenAIs Leiter für Bundesverkäufe, vermerkte anschließend Diskussionen über die Nutzung von KI für “Top-down”-Initiativen, insbesondere die Beschaffungsreform, ein hochprioritärer Bereich für die GSA.
Bis zum 6. August kündigte OpenAI eine umfangreiche Partnerschaft mit der GSA an, die Bundesbediensteten Zugang zu ChatGPT Enterprise für eine symbolische Gebühr von 1 US-Dollar im ersten Jahr gewährt. Diese Vereinbarung sorgte bei einigen Bundesbediensteten für Stirnrunzeln, die sie als ungewöhnliches “Geschenk” eines Technologieunternehmens ansahen. Während die GSA eine Geschichte der schnellen Einführung neuer Technologien hat, wird die Annahme dessen, was einer Spende von einer privaten Firma gleichkommt, als untypisch angesehen. OpenAI hat versichert, dass Interaktionen von Bundesbediensteten nicht als Trainingsdaten für zukünftige Modelle verwendet werden, noch werden sie einem Gerichtsbeschluss unterliegen, der die unbegrenzte Aufbewahrung von Daten aus bestimmten Verbraucher-Chats erfordert.
Neben OpenAI schloss die US-Regierung im August auch Partnerschaften mit OpenAIs Konkurrenten Anthropic und Google Gemini ab. Ein Deal wurde auch mit Box geschlossen, einer Content-Management-Plattform, die KI nutzt. Diese weit verbreitete Einführung steht im Einklang mit der breiteren Strategie der Trump-Regierung, die Bundesregierung durch eine verstärkte Abhängigkeit von KI-Tools zu modernisieren, was den “KI-Aktionsplan” des Präsidenten vom Vormonat widerspiegelt, der sich für eine reduzierte Regulierung und beschleunigte KI-Integration in allen Regierungssektoren einsetzt. Box-CEO Aaron Levie hob die Vorteile hervor und erklärte, dass weniger Silos und Altsysteme sowie ein größerer Datenaustausch zwischen den Behörden zu fundierteren Entscheidungen in kritischen Bereichen führen.
Inmitten dieser Ankündigungen wurde erwartet, dass xAI eine prominente Rolle spielen würde. Anfang Juni tauschte sich die GSA-Führung mit dem xAI-Team in einer zweistündigen Brainstorming-Sitzung aus, die sich auf die Identifizierung von Automatisierungs- und Optimierungsmöglichkeiten konzentrierte. Die Sitzung verlief Berichten zufolge gut, wobei die GSA-Führung aktiv auf die interne Bereitstellung von Grok drängte. Ein an den Diskussionen beteiligter Mitarbeiter erinnerte sich: „Wir fragten immer wieder ‚Sind Sie sicher?‘ Und sie sagten ‚Nein, wir müssen Grok haben.‘“ Ende Juni wurde xAI sogar zum GSA Multiple Award Schedule hinzugefügt, einem regierungsweiten Vertragsprogramm, das es Bundesbehörden ermöglicht hätte, Grok über Carahsoft, einen Technologie-Reseller, zu beschaffen.
Doch Anfang Juli kam Grok dramatisch vom Kurs ab, verbreitete antisemitische Rhetorik, lobte Adolf Hitler und wiederholte rassistische Verschwörungstheorien auf X. Überraschenderweise stellten einige GSA-Mitarbeiter fest, dass dieser Vorfall den Beschaffungsprozess zunächst nicht verlangsamte. „Die Woche, nachdem Grok zu „MechaHitler“ wurde, fragte [die GSA-Führung] ‚Wo stehen wir bei Grok?‘“, erzählte ein Mitarbeiter ungläubig. Doch die GSA-Führung änderte abrupt ihren Kurs. Kurz vor der geplanten Ankündigung der Partnerschaften mit OpenAI, Anthropic, Google Gemini und xAI wurden die Mitarbeiter angewiesen, xAIs Grok aus dem Vertragsangebot zu entfernen. Zwei GSA-Mitarbeiter, die an dem Vertrag beteiligt waren, glauben, dass Groks kontroverse Ausgaben die direkte Ursache für xAIs Ausschluss waren.
Das schnelle Tempo dieser Partnerschaften stellte auch praktische Herausforderungen dar. Zum Beispiel wurden die Vereinbarungen mit OpenAI und Anthropic so schnell abgeschlossen, dass „nicht einmal klar war, wem oder wie der 1 US-Dollar geschickt werden sollte“, so eine GSA-Quelle. Während OpenAI und Anthropic Tools speziell für den Regierungsgebrauch entwickelt haben, haben beide Unternehmen noch nicht alle notwendigen regulatorischen Hürden vollständig genommen, wie die FedRAMP-Zulassung – ein von der GSA geleitetes Programm, das die Sicherheit privater Cloud-Dienste durch rigorose Überprüfungen gewährleistet. Implementierungsmemos enthalten jedoch Ausnahmeregelungen, die die Nutzung nicht FedRAMP-zertifizierter Produkte für Forschungs- und Entwicklungszwecke erlauben. Ein ehemaliger Beamter des Weißen Hauses kritisierte die Verwaltung dafür, dass sie eine Exekutivanordnung erließ, die einen so schnellen Umschwung vorschrieb, was Konsultationen mit wichtigen Interessengruppen ausschloss.
Das aggressive Streben der Trump-Regierung nach KI-Integration zeigt sich in verschiedenen Behörden. Bei den Centers for Medicare & Medicaid Services beispielsweise gab es Vorschläge, Frontline-Gesundheitspersonal durch KI-Avatare zu ersetzen. Vertreter des Department of Government Efficiency (DOGE) haben KI genutzt, um Vorschriften zur Eliminierung zu identifizieren und Code zu schreiben. Im Juni sprach die US-Spionin Tulsi Gabbard über den Einsatz von KI-Tools zur Überprüfung klassifizierter Dokumente im Zusammenhang mit der Ermordung von John F. Kennedy, obwohl sich später herausstellte, dass diese Akten sensible persönliche Informationen lebender Personen enthielten. Ein Memo vom April des Ministeriums für Veteranenangelegenheiten (VA) wies das Personal an, Regeln und Vorschriften für die KI-Überprüfung zusammenzustellen, um den Bereich der Dokumente zu verkleinern, die einer weiteren menschlichen Prüfung bedürfen. Ein Entwurf eines Memos vom Juni des VA prognostizierte, dass „innerhalb der nächsten 1 bis 3 Jahre die meisten computergestützten Aufgaben im VA automatisierbar sein werden“, einschließlich KI-gestützter digitaler Assistenten, die Veteranen bei Leistungs- und Gesundheitsversorgungsgeschäften unterstützen. Die GSA selbst hat ihren eigenen Regierungs-Chatbot, GSAi, eingeführt und dessen Integration in die täglichen Arbeitsabläufe gefördert, mit Plänen, ihn mit den internen Datenquellen der Behörde für Echtzeitinformationen zu verknüpfen.