KI-Tools werden zur Bedrohung: Das Ende der Perimeter-Verteidigung?

Venturebeat

Die Landschaft der Cybersicherheit durchläuft eine tiefgreifende Transformation, da staatliche Akteure beginnen, Künstliche Intelligenz-Tools zu bewaffnen und sie in potente Angriffsinstrumente zu verwandeln. Diese Verschiebung signalisiert das potenzielle Ende traditioneller Perimeter-Verteidigungen, da genau jene KI-Technologien, die Unternehmen zur Produktivitätssteigerung einführen, zu ihren gravierendsten internen Bedrohungen werden könnten. Beweise für diese neue Realität kommen aus der Ukraine, wo Russlands staatlich unterstützte Hackergruppe, APT28, aktiv Malware einsetzt, die von großen Sprachmodellen (LLMs) angetrieben wird.

Letzten Monat dokumentierte das Computer Emergency Response Team der Ukraine (CERT-UA) LAMEHUG und bestätigte damit den ersten realen Einsatz von LLM-gestützter Malware. LAMEHUG wird APT28 zugeschrieben und nutzt gestohlene Zugangsdaten für den Zugriff auf KI-Modelle, insbesondere Hugging Face API-Tokens, um KI-Modelle in Echtzeit abzufragen. Dies ermöglicht dynamische Angriffe, während den Opfern gleichzeitig ablenkende Inhalte angezeigt werden. Vitaly Simonovich, ein Forscher bei Cato Networks, betont, dass dies keine Einzelfälle sind, sondern eine Sondierung der ukrainischen Cyberabwehr, die die Bedrohungen widerspiegelt, denen Unternehmen weltweit zunehmend ausgesetzt sind.

Simonovich demonstrierte VentureBeat eindringlich, wie jedes Unternehmens-KI-Tool in weniger als sechs Stunden in eine Malware-Entwicklungsplattform umfunktioniert werden kann. Sein Proof-of-Concept wandelte führende LLMs von OpenAI, Microsoft, DeepSeek und anderen erfolgreich in funktionale Passwort-Diebe um. Entscheidend ist, dass dies mithilfe einer Technik erreicht wurde, die mühelos alle aktuellen Sicherheitskontrollen in diesen KI-Systemen umgeht.

Diese schnelle Konvergenz von staatlichen Akteuren, die KI-gestützte Malware einsetzen, und Forschern, die die inhärenten Schwachstellen von Unternehmens-KI-Tools aufzeigen, fällt mit einer explosionsartigen KI-Einführung zusammen. Der Cato CTRL Threat Report 2025 weist auf einen signifikanten Anstieg der Nutzung von KI-Tools in über 3.000 Unternehmen hin. Bemerkenswert ist, dass große Plattformen wie Copilot, ChatGPT, Gemini, Perplexity und Claude zwischen Q1 und Q4 2024 Adoptionsraten von 34 %, 36 %, 58 %, 115 % bzw. 111 % verzeichneten.

APT28s LAMEHUG ist ein Beispiel für die neue Anatomie der KI-Kriegsführung, die mit erschreckender Effizienz operiert. Die Malware wird typischerweise über Phishing-E-Mails zugestellt, die ukrainische Beamte imitieren und eigenständige ausführbare Dateien enthalten. Nach der Ausführung verbindet sich LAMEHUG über etwa 270 gestohlene Tokens mit der Hugging Face API, um das Modell Qwen2.5-Coder-32B-Instruct abzufragen. Die betrügerische Strategie der Gruppe verfolgt ein Dual-Purpose-Design: Während die Opfer legitim aussehende ukrainische Regierungsdokumente zur Cybersicherheit ansehen, führt LAMEHUG gleichzeitig KI-generierte Befehle zur Systemaufklärung und Datenerfassung aus. Eine zweite, provokativere Variante zeigt KI-generierte Bilder von „lockigen nackten Frauen“, um die Opfer während der Datenexfiltration weiter abzulenken. Simonovich, der in der Ukraine geboren wurde und über umfangreiche Erfahrung in der israelischen Cybersicherheit verfügt, bemerkte: „Russland nutzte die Ukraine als Testfeld für Cyberwaffen. Dies ist der erste Fall, der in freier Wildbahn erfasst wurde.“

Simonovichs Black-Hat-Demonstration unterstreicht, warum die Taktiken von APT28 jeden Unternehmenssicherheitsführer alarmieren sollten. Ohne jegliche Vorkenntnisse in der Malware-Codierung verwandelte er Consumer-KI-Tools in Malware-Fabriken, indem er eine von ihm als „Immersive World“ bezeichnete Narrative-Engineering-Technik anwandte. Diese Methode nutzt eine grundlegende Schwäche in den Sicherheitskontrollen von LLM aus: Während direkte bösartige Anfragen blockiert werden, sind nur wenige, wenn überhaupt, KI-Modelle darauf ausgelegt, einer anhaltenden Erzählung standzuhalten. Simonovich schuf eine fiktive Welt, in der die Malware-Entwicklung eine Kunstform war, wies der KI eine Charakterrolle zu und lenkte dann die Gespräche schrittweise auf die Produktion funktionalen Angriffscodes. Durch iterative Debugging-Sitzungen, in denen die KI fehleranfälligen Code verfeinerte, hatte Simonovich in sechs Stunden einen funktionierenden Chrome-Passwort-Stealer. Die KI, die glaubte, sie helfe beim Schreiben eines Cybersicherheitsromans, merkte nie, dass sie Malware erstellte.

Eine weitere Bedrohung ist das Aufkommen eines aufstrebenden Untergrundmarktes für unzensierte KI-Funktionen. Simonovich entdeckte mehrere Plattformen, wie Xanthrox AI, die eine ChatGPT-identische Oberfläche ohne Sicherheitskontrollen für 250 Dollar pro Monat anbietet. Um den Mangel an Schutzmaßnahmen zu veranschaulichen, tippte Simonovich eine Anfrage nach Anweisungen für Atomwaffen ein, und die Plattform begann sofort mit Websuchen und lieferte detaillierte Anleitungen. Eine andere Plattform, Nytheon AI, zeigte noch weniger operative Sicherheit und bot eine fein abgestimmte, unzensierte Version von Metas Llama 3.2 an. Dies sind nicht nur Proof-of-Concepts; es sind operative Unternehmen mit Zahlungsabwicklung, Kundensupport und regelmäßigen Modellaktualisierungen, die sogar „Claude Code“-Klone anbieten, die für die Malware-Erstellung optimiert sind.

Die rasche Einführung von KI in Sektoren wie Unterhaltung (58 % Anstieg in Q1-Q2 2024), Gastgewerbe (43 %) und Transport (37 %) bedeutet, dass es sich nicht um Pilotprogramme, sondern um Produktionsbereitstellungen handelt, die sensible Daten verarbeiten. CISOs und Sicherheitsverantwortliche in diesen Branchen sehen sich nun mit Angriffsstrategien konfrontiert, die vor einem Jahr bis achtzehn Monaten nicht existierten. Beunruhigenderweise waren die Reaktionen der Anbieter auf Catos Offenlegungen zur „Immersive World“-Technik inkonsistent, reichten von wochenlanger Behebung durch Microsoft bis hin zu vollständigem Schweigen von DeepSeek und mangelndem Engagement von OpenAI. Google lehnte die Überprüfung des Codes aufgrund ähnlicher Beispiele ab. Dies offenbart eine besorgniserregende Lücke in der Sicherheitsbereitschaft genau jener Unternehmen, die diese allgegenwärtigen KI-Plattformen entwickeln.

Der Einsatz von LAMEHUG durch APT28 gegen die Ukraine ist keine Warnung; es ist ein operativer Beweis für Simonovichs Forschung. Die traditionelle Expertenbarriere für die Entwicklung staatlicher Angriffe ist so gut wie verschwunden. Die Statistiken sind erschreckend: 270 gestohlene API-Tokens treiben staatliche Angriffe an, identische Funktionen sind für 250 Dollar pro Monat auf Untergrundplattformen verfügbar, und jedes Unternehmens-KI-Tool kann in sechs Stunden ohne Programmierkenntnisse, einfach durch konversationelle Manipulation, in funktionale Malware verwandelt werden. Die Waffen befinden sich bereits in jeder Organisation, getarnt als Produktivitätstools.