CISOs fordern dringende KI-Regulierung wegen DeepSeek-Gefahren

Artificialintelligence

Ein spürbares Unbehagen macht sich unter den Chief Information Security Officers (CISOs) in den britischen Sicherheitsoperationszentren breit, insbesondere in Bezug auf den chinesischen KI-Riesen DeepSeek. Während künstliche Intelligenz ursprünglich als ein neues Zeitalter für Geschäftseffizienz und Innovation angepriesen wurde, nehmen diejenigen an der Front der Unternehmensverteidigung sie nun als lange, dunkle Schatten wahr.

Bemerkenswerte 81 Prozent der britischen CISOs glauben, dass der chinesische KI-Chatbot eine dringende staatliche Regulierung erfordert. Sie befürchten, dass diese Technologie ohne schnelles staatliches Eingreifen eine nationale Cyberkrise auslösen könnte. Dies ist keine spekulative Angst; es ist eine direkte Reaktion auf eine Technologie, deren Datenverarbeitungspraktiken und ihr inhärentes Missbrauchspotenzial auf den höchsten Ebenen der Unternehmenssicherheit Alarm schlagen.

Diese Ergebnisse, die von Absolute Security für ihren UK Resilience Risk Index Report in Auftrag gegeben wurden, basieren auf einer Umfrage unter 250 CISOs in großen britischen Organisationen. Die Daten deuten darauf hin, dass die abstrakte Bedrohung durch KI direkt auf der Agenda der CISOs materialisiert ist und ihre Reaktionen entschlossen waren. In einem Schritt, der noch vor wenigen Jahren fast undenkbar gewesen wäre, haben über ein Drittel (34 Prozent) dieser Sicherheitsverantwortlichen aufgrund von Cybersicherheitsbedenken bereits ein vollständiges Verbot von KI-Tools implementiert. Ein ähnlicher Anteil, 30 Prozent, hat bereits spezifische KI-Implementierungen in ihren Organisationen gestoppt.

Dieser Rückzug entspringt keiner technologischen Aversion, sondern stellt eine pragmatische Reaktion auf ein eskalierendes Problem dar. Unternehmen kämpfen bereits mit komplexen und ausgeklügelten Bedrohungen, wie hochkarätige Vorfälle wie die jüngste Harrods-Datenpanne belegen. CISOs haben Mühe, Schritt zu halten, und die Integration fortschrittlicher KI in das Toolset der Angreifer stellt eine Herausforderung dar, auf die sich viele zutiefst unvorbereitet fühlen.

Im Mittelpunkt der Bedenken hinsichtlich Plattformen wie DeepSeek steht deren Fähigkeit, sensible Unternehmensdaten preiszugeben und von Cyberkriminellen als Waffe eingesetzt zu werden. Drei von fünf (60 Prozent) CISOs prognostizieren einen direkten Anstieg von Cyberangriffen infolge der Verbreitung von DeepSeek. Ein identischer Anteil berichtet, dass die Technologie ihre Datenschutz- und Governance-Frameworks bereits erschwert und eine ohnehin schon mühsame Aufgabe nahezu unhaltbar macht. Dies hat zu einem signifikanten Perspektivwechsel geführt. Einst als potenzielles Allheilmittel für Cybersicherheitsprobleme gefeiert, wird KI nun von einem signifikanten Anteil von 42 Prozent der CISOs als größere Belastung denn als Vorteil in ihren Verteidigungsstrategien wahrgenommen.

Andy Ward, SVP International von Absolute Security, betonte die Ernsthaftigkeit der Situation: „Unsere Forschung unterstreicht die erheblichen Risiken, die von aufkommenden KI-Tools wie DeepSeek ausgehen, die die Cyber-Bedrohungslandschaft rapide umgestalten. Angesichts wachsender Bedenken hinsichtlich ihres Potenzials, Angriffe zu beschleunigen und sensible Daten zu kompromittieren, müssen Organisationen jetzt handeln, um ihre Cyber-Resilienz zu stärken und Sicherheitsframeworks anzupassen, um mit diesen KI-gesteuerten Bedrohungen Schritt zu halten. Deshalb fordern vier von fünf britischen CISOs dringend eine staatliche Regulierung. Sie haben miterlebt, wie schnell diese Technologie voranschreitet und wie leicht sie bestehende Cybersicherheitsverteidigungen übertreffen kann.“

Am besorgniserregendsten ist vielleicht das weit verbreitete Eingeständnis der Unvorbereitetheit. Fast die Hälfte (46 Prozent) der leitenden Sicherheitsverantwortlichen räumt ein, dass ihre Teams schlecht darauf vorbereitet sind, die spezifischen Bedrohungen durch KI-gesteuerte Angriffe zu bewältigen. Sie erleben, wie KI-Tools wie DeepSeek ihre Verteidigungsfähigkeiten in Echtzeit übertreffen, wodurch eine gefährliche Sicherheitslücke entsteht, die nach Ansicht vieler nur durch staatliches Eingreifen auf nationaler Ebene geschlossen werden kann. „Dies sind keine hypothetischen Risiken“, fuhr Ward fort. „Die Tatsache, dass Organisationen bereits KI-Tools vollständig verbieten und ihre Sicherheitsstrategien als Reaktion auf die Risiken, die von LLMs wie DeepSeek ausgehen, überdenken, zeigt die Dringlichkeit der Situation. Ohne einen umfassenden nationalen Regulierungsrahmen – einen, der klare Richtlinien für den Einsatz, die Governance und die Überwachung dieser Tools festlegt – ist die britische Wirtschaft dem Risiko weit verbreiteter Störungen in allen Sektoren ausgesetzt.“

Trotz dieser defensiven Haltung ziehen Unternehmen keinen vollständigen Rückzug aus der KI in Betracht. Die Reaktion ist eher eine strategische Pause als ein dauerhafter Stopp. Unternehmen erkennen das immense Potenzial der KI und investieren aktiv in ihre sichere Einführung. Tatsächlich priorisieren beachtliche 84 Prozent der Organisationen die Einstellung von KI-Spezialisten für 2025. Diese Investition erstreckt sich bis in die oberste Führungsebene, wobei 80 Prozent der Unternehmen sich zu KI-Schulungen auf Führungsebene verpflichten. Die Strategie scheint ein zweigeteilter Ansatz zu sein: die Weiterbildung der bestehenden Belegschaft, um die Technologie zu verstehen und zu verwalten, während gleichzeitig spezialisierte Talente rekrutiert werden, um ihre inhärenten Komplexitäten zu navigieren. Die vorherrschende Hoffnung ist, dass der Aufbau einer robusten internen Basis an KI-Expertise ein entscheidendes Gegengewicht zu den eskalierenden externen Bedrohungen darstellen kann.

Die Botschaft der britischen Sicherheitsführung ist klar: Sie wollen die KI-Innovation nicht behindern, sondern vielmehr ihren sicheren und verantwortungsvollen Fortschritt ermöglichen. Um dies zu erreichen, benötigen sie eine stärkere Partnerschaft mit der Regierung. Der Weg nach vorn beinhaltet die Festlegung klarer Einsatzregeln, eine robuste staatliche Aufsicht, die Förderung eines Pools qualifizierter KI-Fachkräfte und die Entwicklung einer kohärenten nationalen Strategie zur Bewältigung der potenziellen Sicherheitsrisiken, die von DeepSeek und der unvermeidlichen nächsten Generation leistungsstarker KI-Tools ausgehen. „Die Zeit für langwierige Debatten ist vorbei“, schließt Ward. „Sofortiges Handeln, umfassende Politik und strenge Aufsicht sind unerlässlich, um sicherzustellen, dass KI eine Kraft des Fortschritts bleibt und kein Katalysator für Krisen wird.“