Anthropic verschärft Claude-KI-Sicherheitsregeln: CBRN-Waffen verboten
In einem bedeutenden Schritt, der die wachsenden Bedenken hinsichtlich der Sicherheit künstlicher Intelligenz widerspiegelt, hat Anthropic die Nutzungsrichtlinie für seinen Claude KI-Chatbot aktualisiert. Die überarbeiteten Richtlinien, die stillschweigend in Kraft traten, führen strengere Verbote ein, insbesondere hinsichtlich der Entwicklung gefährlicher Waffen, während sie gleichzeitig die aufkommenden Risiken durch zunehmend autonome KI-Tools adressieren.
Eine zentrale Überarbeitung, die Anthropic in seiner öffentlichen Zusammenfassung der Änderungen nicht explizit hervorhob, ist das ausdrückliche Verbot der Nutzung von Claude zur Entwicklung biologischer, chemischer, radiologischer oder nuklearer (CBRN) Waffen. Während die frühere Unternehmenspolitik die Nutzung von Claude zur „Herstellung, Modifizierung, Gestaltung, Vermarktung oder Verteilung von Waffen, Sprengstoffen, gefährlichen Materialien oder anderen Systemen, die dazu bestimmt sind, menschliches Leben zu schädigen oder zu verlieren“, weitgehend untersagte, umfasst die aktualisierte Version nun explizit „hochexplosive Sprengstoffe“ neben den CBRN-Kategorien. Diese Präzisierung unterstreicht einen wachsenden Branchenfokus darauf, zu verhindern, dass KI zu katastrophalem Schaden beiträgt, und baut auf Schutzmaßnahmen wie dem „AI Safety Level 3“-Schutz auf, den Anthropic im Mai mit der Einführung seines Claude Opus 4-Modells implementierte, das darauf ausgelegt ist, das System widerstandsfähiger gegen Manipulationen zu machen und die Wahrscheinlichkeit zu verringern, dass es bei solchen gefährlichen Unternehmungen hilft.
Über die Waffenentwicklung hinaus stellt sich Anthropic auch den aufkommenden Herausforderungen, die durch „Agenten-KI-Tools“ – Systeme, die autonom handeln können – entstehen. Das Unternehmen erkennt ausdrücklich die Risiken an, die mit Funktionen wie „Computer Use“ (Computernutzung), die es Claude ermöglicht, den Computer eines Benutzers zu steuern, und „Claude Code“, einem Tool, das die KI direkt in das Terminal eines Entwicklers integriert, verbunden sind. Diese leistungsstarken Funktionen, so Anthropic, bringen „neue Risiken mit sich, einschließlich des Potenzials für massiven Missbrauch, Malware-Erstellung und Cyberangriffe“.
Um diese Bedrohungen zu mindern, enthält die aktualisierte Richtlinie einen neuen Abschnitt mit dem Titel „Computersysteme oder Netzwerksysteme nicht kompromittieren“. Dieser Abschnitt legt klare Regeln gegen die Nutzung von Claude fest, um Systemschwachstellen zu entdecken oder auszunutzen, bösartige Software zu erstellen oder zu verbreiten oder Tools für Denial-of-Service-Angriffe zu entwickeln, die darauf abzielen, den Netzwerkzugriff für legitime Benutzer zu stören. Diese Ergänzungen spiegeln eine proaktive Haltung gegen die potenzielle Militarisierung von KI im Bereich der Cybersicherheit wider.
In einer nuancierteren Anpassung hat Anthropic auch seine Haltung zu politischen Inhalten verfeinert. Anstatt eines pauschalen Verbots aller Inhalte im Zusammenhang mit politischen Kampagnen und Lobbying wird das Unternehmen nun nur noch Nutzungen von Claude verbieten, die „täuschend oder störend für demokratische Prozesse sind oder die Wähler- und Kampagnenausrichtung betreffen“. Dies deutet auf eine Verschiebung hin, die einen allgemeineren politischen Diskurs zulässt, während strenge Verbote gegen Missbrauch zur Manipulation aufrechterhalten werden. Darüber hinaus stellte Anthropic klar, dass seine Anforderungen für „Hochrisiko“-Anwendungsfälle – Szenarien, in denen Claude Empfehlungen an Einzelpersonen oder Kunden gibt – nur für verbraucherorientierte Anwendungen gelten, nicht für Business-to-Business-Interaktionen, was mehr Flexibilität für die kommerzielle Bereitstellung bietet.
Diese umfassenden Richtlinienaktualisierungen unterstreichen die fortlaufenden Bemühungen von Anthropic, die komplexe ethische und sicherheitstechnische Landschaft fortschrittlicher KI zu navigieren und dabei Innovation mit dem Engagement zur Verhinderung von Missbrauch in einer zunehmend komplexen digitalen Welt in Einklang zu bringen.