KI in der Cybersicherheit: Schild der Verteidiger oder Speer der Angreifer?

Theregister

Auf der jüngsten Black Hat Konferenz, einem Eckpfeiler des jährlichen Hacker Summer Camp, entstand eine zentrale Debatte über die sich entwickelnde Rolle der künstlichen Intelligenz in der Cybersicherheit: Begünstigt sie derzeit Verteidiger oder Angreifer? Mikko Hyppönen, damals Chief Research Officer des finnischen Sicherheitsunternehmens WithSecure, präsentierte eine optimistische, wenn auch temporäre Ansicht, die besagt, dass KI derzeit den Verteidigern einen Vorteil verschafft.

„Ich glaube fest daran, dass KI der Schlüssel [in der Sicherheit] ist, denn das ist eines der wenigen Felder, in denen die Verteidiger den Angreifern voraus sind“, sagte Hyppönen dem Publikum. Er hob hervor, dass Cybersicherheitsunternehmen generative KI umfassend in ihre Produkte integrieren, während Angreifer erst beginnen, die Technologie zu nutzen, wobei aktuelle KI-gesteuerte Angriffe relativ simpel bleiben. Zur Veranschaulichung bemerkte Hyppönen, dass im Jahr 2024 keine KI-Systeme öffentlich bekannt waren, die Zero-Day-Schwachstellen – kritische, den Entwicklern unbekannte Softwarefehler – entdeckt hatten. Bis Mitte 2025 hatten Forscher jedoch bereits etwa zwei Dutzend solcher Schwachstellen mithilfe von Large Language Model (LLM)-Scans identifiziert, die alle seitdem behoben wurden. Er warnte, dass, da Hacker zunehmend KI für die Forschung einsetzen, weitere Entdeckungen unvermeidlich seien.

Eine gegensätzliche Perspektive kam von Nicole Perlroth, einer ehemaligen Sicherheitskorrespondentin der New York Times und nun Partnerin bei Silver Buckshot Ventures. In einer späteren Black Hat Keynote prognostizierte sie, dass sich der Vorteil bis zum nächsten Jahr wahrscheinlich in Richtung offensiver KI verschieben würde. Perlroth wies auch auf die erhebliche Talentlücke in der US-Sicherheitsbranche hin und nannte 500.000 offene Stellen – eine Statistik, die bei einem Publikum, das sich des schwierigen Arbeitsmarktes bewusst war, ein wehmütiges Lachen hervorrief.

Die ganze Woche über äußerten Branchenexperten, darunter Anbieter, Penetrationstester und diejenigen an der Sicherheitsfront, eine Mischung aus Optimismus und Skepsis hinsichtlich des Beitrags der KI. Obwohl viele ihr Potenzial positiv bewerten, besteht die weit verbreitete Sorge, dass der derzeitige defensive Vorteil nicht unbegrenzt anhalten wird. Entscheidend ist, dass niemand, der befragt wurde, erwartet, dass KI-Systeme in der Lage sein werden, Netzwerke für mindestens ein weiteres Jahrzehnt autonom anzugreifen.

Präsentationen auf der Konferenz sprachen häufig KI-Tools für das „Red Teaming“ an – die Simulation von Angriffen zur Überprüfung von Netzwerkverteidigungen. Der Konsens war jedoch, dass diese Tools noch nicht vollständig vertrauenswürdig sind und bei Missbrauch zu grundlegenden Fehlern neigen. Charles Henderson, Executive Vice President für Cybersicherheit bei Coalfire, betonte, dass die Wirksamkeit der KI-Tools seines Unternehmens ohne menschliche Aufsicht stark eingeschränkt ist. Er erklärte, dass „richtig geleitet, KI etwa 60 Prozent der Arbeit erledigt“, was sie hervorragend zur Entlastung menschlicher Arbeitslasten macht, aber ungeeignet, ganze Missionen zu übernehmen. Henderson erläuterte, dass KI sich hervorragend zur Erkennung von Fehlern eignet, aber ihre effektive Implementierung von größter Bedeutung ist; das bloße Bereitstellen von KI-Tools ohne strategische menschliche Anleitung sei nutzlos, ein Punkt, der oft von denen übersehen wird, die ihre Fähigkeiten überbewerten. Chris Yule, Direktor für Bedrohungsforschung bei der Sophos Cyber Threat Unit, teilte diese Ansicht und schlug vor, dass KI menschliche Fähigkeiten ergänzen und nicht ersetzen sollte, wobei maschinelle Lernsysteme klare, begrenzte Ziele und menschliche Anleitung für eine optimale Nutzung benötigen. Dieser Ansatz beim Red Teaming liefert auch wertvolle Einblicke, wie zukünftige Kriminelle diese Systeme nutzen könnten, wodurch die Sicherheitsgemeinschaft potenzielle Angriffe modellieren und vorbeugen kann.

An der Verteidigungsfront investiert die US-Regierung über die Defense Advanced Research Projects Agency (DARPA) aktiv in KI als Schutzwerkzeug. Die DARPA vergab kürzlich 8,5 Millionen Dollar an drei Teams, die an ihrer KI-Cyber-Herausforderung teilnahmen, einem zweijährigen Wettbewerb, der darauf abzielt, KI-Systeme zu entwickeln, die in der Lage sind, Schwachstellen zu identifizieren und zu beheben, ohne die Netzwerkstabilität zu beeinträchtigen. Der anstrengende Wettbewerb reduzierte 42 Teams auf sieben, wobei die siegreiche Zusammenarbeit führende Forscher von Georgia Tech, Samsung Research, dem Korea Advanced Institute of Science & Technology (KAIST) und der Pohang University of Science and Technology (POSTECH) umfasste. Im Wettbewerb entdeckten die KI-Systeme erfolgreich 54 und behoben 43 der 70 absichtlich eingeführten Schwachstellen. Noch beeindruckender ist, dass sie autonom 18 zusätzliche Schwachstellen identifizierten – sechs in C und zwölf in Java – und es schafften, 11 davon zu beheben. Der aus dieser Herausforderung entwickelte Code ist nun Open Source, und weitere Wettbewerbe sind für die Zukunft geplant. An anderer Stelle stellten Quellen die besondere Eignung von KI fest, SQL-Schwachstellen, einen häufigen Fehler, zu erkennen, was wahrscheinlich auf umfangreiche Trainingsdaten zurückzuführen ist.

Eine erhebliche Sorge unter den Teilnehmern war der potenzielle Einfluss von KI auf den Arbeitsmarkt. Während einige Unternehmen Sicherheitspersonal, insbesondere in Einstiegspositionen, abgebaut haben, argumentieren andere, dass die bestehende Talentlücke ungelöst bleibt. Chris Yule von Sophos vertrat die Ansicht, dass die Auswirkungen von KI auf Sicherheitsjobs überbewertet wurden, und schlug vor, dass sie manchmal als Marketingvorwand für Entlassungen genutzt wird. Er behauptete, dass KI zwar ihre Anwendungen habe, das Ersetzen ganzer Segmente der Sicherheitsbelegschaft derzeit jedoch nicht machbar sei und vielleicht niemals sein werde. Ein anonymer CISO stimmte dem zu und erklärte: „Man wird den menschlichen Faktor niemals überwinden. [KI-Systeme] sind gut darin, Daten zu verarbeiten, aber menschlicher Einfallsreichtum ist im Moment schwer zu ersetzen, aber das kann sich ändern. Aber ich vertraue meinen Codern mehr als einer KI.“

Vorerst dient KI als mächtiges Erweiterungswerkzeug in der Cybersicherheit. Da sich die Modelle ständig verbessern, bleibt die zukünftige Landschaft hochgradig fließend, und Experten zögern, definitive Vorhersagen über ihre endgültige Entwicklung zu treffen.