US-Regierung setzt 'All In' auf KI: Massive Risiken

Sciencenews

Die Regierung der Vereinigten Staaten verfolgt eine ehrgeizige „KI-zuerst-Strategie“ mit dem Ziel, künstliche Intelligenz tief in ihre Kernfunktionen zu integrieren. Dieser bedeutende Vorstoß, der durch einen am 23. Juli enthüllten neuen Aktionsplan veranschaulicht wird, signalisiert eine umfassende Verlagerung hin zur Nutzung von KI in allen Bundesbehörden. Jüngste Initiativen unterstreichen dieses Engagement, darunter die Vergabe von 200 Millionen US-Dollar an Verträgen durch das Verteidigungsministerium an führende KI-Firmen wie Anthropic, Google, OpenAI und xAI. Insbesondere hat Elon Musks xAI „Grok for Government“ eingeführt, eine Plattform, die darauf ausgelegt ist, die Beschaffung von KI-Produkten durch Bundesbehörden über die General Services Administration zu erleichtern.

Eine zentrale Säule dieser Strategie ist die Aggregation riesiger Mengen sensibler Regierungsdaten. Berichte deuten darauf hin, dass die Beratungsgruppe namens Department of Government Efficiency bereits damit begonnen hat, auf persönliche Informationen, Gesundheitsakten, Steuerdetails und andere geschützte Daten aus verschiedenen Bundesministerien, einschließlich des Finanzministeriums und der Veteranenangelegenheiten, zuzugreifen und diese zu konsolidieren. Das ultimative Ziel ist es, diese vielfältigen Informationen in einer einzigen, zentralisierten Datenbank zu sammeln.

Während das Streben nach Effizienz klar ist, hat diese schnelle Einführung von KI, insbesondere im Umgang mit sensiblen Informationen, bei Experten erhebliche Bedenken hinsichtlich potenzieller Datenschutz- und Cybersicherheitsrisiken ausgelöst. Diese Bedenken verstärken sich, da traditionelle Vorsichtsmaßnahmen, wie strenge Grenzen für den Datenzugriff, gelockert zu werden scheinen.

Bo Li, ein KI- und Sicherheitsexperte von der University of Illinois Urbana-Champaign, hebt die unmittelbare Gefahr von Datenlecks hervor. Wenn KI-Modelle mit vertraulichen Informationen trainiert oder feinabgestimmt werden, können sie diese unbeabsichtigt memorieren. Zum Beispiel könnte ein Modell, das mit Patientendaten trainiert wurde, nicht nur allgemeine Fragen zur Krankheitsprävalenz beantworten, sondern auch unbeabsichtigt die Gesundheitszustände, Kreditkartennummern, E-Mail-Adressen oder Wohnadressen bestimmter Personen preisgeben. Darüber hinaus könnten solche privaten Informationen, wenn sie im Training oder als Referenz für die Generierung von Antworten verwendet werden, es der KI ermöglichen, neue, potenziell schädliche Verbindungen zwischen unterschiedlichen persönlichen Daten zu inferieren.

Jessica Ji, eine KI- und Cybersicherheitsexpertin am Center for Security and Emerging Technology der Georgetown University, weist darauf hin, dass die Konsolidierung von Daten aus verschiedenen Quellen in einem großen Datensatz ein unwiderstehliches Ziel für böswillige Akteure schafft. Anstatt mehrere einzelne Agenturen durchbrechen zu müssen, könnte ein Hacker potenziell eine einzige, konsolidierte Datenquelle kompromittieren und so Zugang zu einem beispiellosen Informationsschatz erhalten. Historisch gesehen haben US-Organisationen es bewusst vermieden, persönlich identifizierbare Informationen, wie Namen und Adressen, mit sensiblen Gesundheitszuständen zu verknüpfen. Nun führt die Konsolidierung von Regierungsdaten für das KI-Training zu erheblichen Datenschutzrisiken. Die Fähigkeit von KI-Systemen, statistische Verknüpfungen innerhalb großer Datensätze, insbesondere solcher mit Finanz- und medizinischen Informationen, herzustellen, stellt abstrakte, aber tiefgreifende Herausforderungen für die bürgerlichen Freiheiten und die Privatsphäre dar. Einzelpersonen könnten nachteilig betroffen sein, ohne jemals zu verstehen, wie diese Auswirkungen mit dem KI-System zusammenhängen.

Li erläutert weitere spezifische Cyberangriffe, die möglich werden. Ein „Mitgliedschaftsangriff“ ermöglicht es einem Angreifer, festzustellen, ob die Daten einer bestimmten Person im Trainingsdatensatz des Modells enthalten waren. Ein schwerwiegenderer „Modellinversionsangriff“ geht über die bloße Mitgliedschaft hinaus und ermöglicht es dem Angreifer, einen gesamten Datensatz aus den Trainingsdaten zu rekonstruieren, wodurch möglicherweise Alter, Name, E-Mail und sogar Kreditkartennummer einer Person offengelegt werden. Der alarmierendste, ein „Modell-Stealing-Angriff“, beinhaltet das Extrahieren der Kernkomponenten oder Parameter des KI-Modells, die dann verwendet werden könnten, um zusätzliche Daten preiszugeben oder das Modell für ruchlose Zwecke zu replizieren.

Obwohl Anstrengungen unternommen werden, diese fortschrittlichen Modelle zu sichern, bleibt eine vollständige Lösung schwer fassbar. Li merkt an, dass „Schutzmodelle“ als KI-Firewall fungieren können, indem sie sensible Informationen sowohl in den Eingaben als auch in den Ausgaben identifizieren und filtern. Eine andere Strategie, das „Verlernen“, zielt darauf ab, Modelle so zu trainieren, dass sie bestimmte Informationen vergessen. Das Verlernen kann jedoch die Modellleistung beeinträchtigen und kann keine vollständige Löschung sensibler Daten garantieren. Ähnlich erfordern Schutzmodelle eine kontinuierliche und zunehmend ausgefeilte Entwicklung, um der sich entwickelnden Landschaft von Angriffen und Informationslecks entgegenzuwirken. Wie Li abschließt: „Es gibt Verbesserungen auf der Verteidigungsseite, aber noch keine Lösung.“

Neben den technischen Herausforderungen drohen auch organisatorische und prozessbasierte Risiken. Ji hebt hervor, dass der Drang zur schnellen Einführung von KI oft von oben kommt und enormen Druck auf das Personal auf unteren Ebenen ausübt, Systeme schnell zu implementieren, ohne die potenziellen Auswirkungen ausreichend zu berücksichtigen. Dies kann zu einem Mangel an Kontrolle und Überblick darüber führen, wie Daten intern zirkulieren. Wenn einer Behörde beispielsweise klare Richtlinien fehlen, die Mitarbeitern die Nutzung kommerzieller KI-Chatbots verbieten, könnten Mitarbeiter unbeabsichtigt sensible Codes oder interne Daten zur Unterstützung in diese externen Plattformen eingeben. Solche Daten könnten dann vom Chatbot-Anbieter für eigene Trainingszwecke verwendet werden, wodurch ein unsichtbares und unkontrolliertes Expositionsrisiko entsteht.

Experten empfehlen einhellig, der Sicherheit höchste Priorität einzuräumen. Ji rät, bestehende Risikomanagementprozesse an die einzigartige Natur von KI-Tools anzupassen und betont, dass Organisationen sowohl die Risiken als auch die Vorteile gründlich bewerten müssen. Li betont die unmittelbare Notwendigkeit, jedes KI-Modell mit einem Schutzmechanismus als grundlegenden Abwehrmechanismus zu koppeln. Darüber hinaus ist kontinuierliches „Red Teaming“ – bei dem ethische Hacker Angriffe simulieren, um Schwachstellen aufzudecken – entscheidend, um im Laufe der Zeit neue Schwachstellen zu identifizieren. Während die US-Regierung „all in“ auf KI setzt, war die Notwendigkeit, Innovation mit robusten Sicherheits- und Datenschutzmaßnahmen in Einklang zu bringen, noch nie so kritisch.