Anthropic Claude Code: Automatisierte KI-Sicherheitsprüfungen

Thenewstack

Anthropic hat automatisierte Sicherheitsüberprüfungsfunktionen für Claude Code, seinen Befehlszeilen-KI-Codierungsassistenten, vorgestellt. Damit reagiert das Unternehmen direkt auf die zunehmenden Bedenken hinsichtlich der Aufrechterhaltung der Code-Integrität, da künstliche Intelligenz Softwareentwicklungszyklen dramatisch beschleunigt. Diese neuen Funktionen, zu denen ein terminalbasierter Sicherheitsscanning-Befehl und automatisierte GitHub-Pull-Request-Überprüfungen gehören, stellen laut Logan Graham, Leiter von Anthropic’s Frontier Red Team, einen grundlegenden Schritt dar, um Entwicklern die Erstellung hochsicheren Codes mit minimalem Aufwand zu ermöglichen.

Ein Eckpfeiler dieses Updates ist der neue Befehl /security-review, den Entwickler direkt von ihrem Terminal ausführen können, bevor sie Code committen. Diese Funktion scannt schnell nach gängigen Schwachstellen, einschließlich Problemen wie SQL-Injection, Cross-Site-Scripting (XSS), Authentifizierungsfehlern, unsicherer Datenverarbeitung und Abhängigkeitsschwachstellen. Graham betont die Einfachheit und vergleicht den Prozess mit “10 Tastenanschlägen”, die die Aufsicht eines erfahrenen Sicherheitsingenieurs bieten. Dies macht es Entwicklern nahezu mühelos, die Codesicherheit zu gewährleisten, egal ob der Code unabhängig oder mit Claudes Hilfe geschrieben wurde. Durch die Identifizierung und automatische Implementierung von Korrekturen für diese Probleme durch Claude Code bleibt der Sicherheitsüberprüfungsprozess innerhalb des “inneren Entwicklungszyklus” – der frühen Phasen, in denen Probleme am kostengünstigsten und am einfachsten zu beheben sind.

Ergänzend zum Terminalbefehl gibt es eine wichtige GitHub Action, die automatisch jeden Pull Request auf Sicherheitslücken überprüft. Sobald sie von Sicherheitsteams konfiguriert wurde, wird dieses System bei neuen Pull Requests automatisch aktiviert, analysiert Codeänderungen auf Schwachstellen, wendet anpassbare Regeln an, um Fehlalarme herauszufiltern, und veröffentlicht Inline-Kommentare innerhalb der Pull Requests, die Bedenken detailliert beschreiben und Korrekturen empfehlen. Diese robuste Integration etabliert ein konsistentes Sicherheitsüberprüfungsprotokoll über Entwicklungsteams hinweg und stellt sicher, dass kein Code ohne eine grundlegende Sicherheitsbewertung in die Produktion gelangt. Sie integriert sich nahtlos in bestehende Continuous Integration/Continuous Delivery (CI/CD)-Pipelines.

Anthropic hat diese Funktionen intern rigoros getestet, wobei Graham bestätigte, dass das Unternehmen erfolgreich mehrere Produktionsschwachstellen vor der Bereitstellung abgefangen hat. Bemerkenswerte Fänge umfassen eine Remote-Code-Execution-Schwachstelle, die über DNS-Rebinding in einem lokalen HTTP-Server ausnutzbar ist, und eine SSRF (Server-Side Request Forgery)-Angriffsschwachstelle innerhalb eines internen Anmeldeinformationsverwaltungssystems. Diese interne Validierung unterstreicht die Wirksamkeit der neuen Tools bei der Verhinderung, dass Sicherheitslücken Endbenutzer erreichen.

Diese Sicherheitsverbesserungen sind eine direkte Antwort auf das, was Graham als eine bevorstehende Krise in der Softwaresicherheit identifiziert. Da KI-Tools immer allgegenwärtiger werden, explodiert die schiere Menge des generierten Codes. Graham postuliert, dass sich die Menge des vorhandenen Codes innerhalb der nächsten ein bis zwei Jahre um den Faktor zehn, hundert oder sogar tausend vervielfachen könnte. Er argumentiert, dass der einzige praktikable Weg, diese beispiellose Skalierung zu bewältigen, durch genau die Modelle führt, die die Code-Explosion antreiben. Traditionelle, von Menschen geführte Sicherheitsüberprüfungen sind in diesem Umfang einfach nicht nachhaltig, was automatisierte KI-gesteuerte Lösungen unerlässlich macht, um die Codesicherheit aufrechtzuerhalten und sogar zu verbessern.

Über die Bewältigung der Skalierungsherausforderung hinaus zielen die neuen Funktionen von Anthropic darauf ab, den Zugang zu fortgeschrittenem Sicherheitsexpertise zu demokratisieren. Graham hebt den Nutzen für kleinere Entwicklungsteams, einzelne Entwickler oder “Ein-Personen-Unternehmen” hervor, denen es oft an engagierten Sicherheitsingenieuren oder dem Budget für teure Sicherheitssoftware mangelt. Durch die Bereitstellung dieser Funktionen ermöglicht Anthropic diesen kleineren Einheiten, zuverlässiger zu entwickeln und schneller zu skalieren, wodurch ein insgesamt sichereres Entwicklungsökosystem gefördert wird.

Die Ursprünge dieser Sicherheitsfunktionen gehen auf ein internes Hackathon-Projekt bei Anthropic zurück, das aus den Bemühungen des Sicherheitsteams entstand, “Frontier-Class Security” für das KI-Unternehmen selbst aufrechtzuerhalten. Die Wirksamkeit des Tools beim Identifizieren von Fehlern im eigenen Code von Anthropic vor der Veröffentlichung führte schnell zu der Entscheidung, es allen Claude Code-Benutzern zur Verfügung zu stellen, was mit der breiteren Mission des Unternehmens übereinstimmt. Diese Veröffentlichung steht auch im Einklang mit dem jüngsten strategischen Vorstoß von Anthropic, die Unternehmensreife von Claude Code zu verbessern, nach einer schnellen Abfolge von Updates, einschließlich Subagenten, Analyse-Dashboards für Administratoren, nativer Windows-Unterstützung, Hooks und Multidirectory-Unterstützung. Diese schnelle Innovation unterstreicht Amphropics Ambition, Claude Code als wesentliche Infrastruktur für moderne Entwicklungsteams zu positionieren und sich über die bloße Codegenerierung hinaus zu einer umfassenden Workflow-Integration zu entwickeln.

Graham betrachtet diese Sicherheitsfunktionen als lediglich den Anfang einer tiefgreifenden Transformation, wie Softwareentwicklung und Sicherheit mit KI interagieren werden. Er erwartet eine Zukunft, in der KI-Modelle zunehmend “agentischer” agieren und komplexe, mehrstufige Entwicklungsaufgaben autonom bewältigen werden. Sowohl der Befehl /security-review als auch die GitHub Action sind sofort für alle Claude Code-Benutzer verfügbar, wobei der Terminalbefehl ein Update auf die neueste Version erfordert und die GitHub Action einen manuellen Einrichtungsprozess benötigt, der in der Dokumentation von Anthropic detailliert beschrieben ist. Für Organisationen, die mit den Sicherheitsauswirkungen der KI-beschleunigten Entwicklung zu kämpfen haben, stellen diese Tools einen entscheidenden frühen Versuch dar, sicherzustellen, dass die Produktivitätsgewinne der KI-Codierungsunterstützung die Anwendungssicherheit nicht gefährden.