TOS-Verstoß: Anthropic sperrt OpenAI von Claude API aus

Wired

Anthropic hat OpenAIs API-Zugriff auf seine Claude-Modelle widerrufen und dabei Verstöße gegen die Nutzungsbedingungen von Anthropic angeführt. Die Entscheidung, die am Dienstag in Kraft trat, erfolgt Berichten zufolge, während OpenAI sich auf die Einführung von GPT-5 vorbereitet, seinem KI-Modell der nächsten Generation, dem verbesserte Programmierfähigkeiten nachgesagt werden.

„Claude Code ist zur ersten Wahl für Programmierer weltweit geworden, und so war es keine Überraschung zu erfahren, dass auch OpenAIs eigenes technisches Personal unsere Programmierwerkzeuge vor dem Start von GPT-5 nutzte“, erklärte Christopher Nulty, ein Sprecher von Anthropic. „Leider ist dies ein direkter Verstoß gegen unsere Nutzungsbedingungen.“ Die kommerziellen Bedingungen von Anthropic verbieten Kunden ausdrücklich die Nutzung seiner Dienste zum „Aufbau eines konkurrierenden Produkts oder Dienstes, einschließlich der Schulung konkurrierender KI-Modelle“ oder zum „Reverse Engineering oder Duplizieren“ seiner Angebote.

Quellen zufolge hatte OpenAI Claude über speziellen Entwicklerzugriff (APIs) anstelle der Standard-Chat-Oberfläche in seine eigenen internen Tools integriert. Dies ermöglichte OpenAI, Tests durchzuführen und Claudes Fähigkeiten in Bereichen wie Programmierung und kreatives Schreiben mit seinen eigenen KI-Modellen zu vergleichen. Das Unternehmen soll Claude auch zur Bewertung von Antworten auf sicherheitsrelevante Prompts bezüglich Kategorien wie Material über sexuellen Kindesmissbrauch (CSAM), Selbstverletzung und Verleumdung verwendet haben, wobei die Ergebnisse zur Verfeinerung der eigenen Modelle genutzt wurden.

Hannah Wong, Chief Communications Officer von OpenAI, zeigte sich enttäuscht über die Entscheidung. „Es ist Industriestandard, andere KI-Systeme zu bewerten, um den Fortschritt zu benchmarken und die Sicherheit zu verbessern“, sagte Wong in einer Erklärung. „Obwohl wir Anthropic’s Entscheidung respektieren, unseren API-Zugriff zu kappen, ist es enttäuschend, wenn man bedenkt, dass unsere API ihnen weiterhin zur Verfügung steht.“

Trotz der allgemeinen Zugangssperre bekräftigte Nulty, dass Anthropic „weiterhin sicherstellen wird, dass OpenAI API-Zugriff für Benchmarking- und Sicherheitsbewertungen hat, wie es branchenweit Standard ist.“ Anthropic machte jedoch keine Angaben dazu, wie dieser spezifische Zugang aufrechterhalten würde oder ob er sich vom zuvor widerrufenen allgemeinen API-Zugriff unterscheidet.

Die Taktik, den API-Zugriff von Wettbewerbern einzuschränken, ist in der Tech-Branche nicht neu. Historisch gesehen haben Unternehmen wie Facebook dasselbe mit Rivalen wie dem Twitter-eigenen Vine getan, was zu Vorwürfen wettbewerbswidrigen Verhaltens führte. Vor Kurzem hat Salesforce den Zugriff von Wettbewerbern auf bestimmte Daten über die Slack-API eingeschränkt. Auch dies ist nicht der erste derartige Schritt von Anthropic; letzten Monat schränkte das Unternehmen den direkten Zugriff des KI-Programmier-Startups Windsurf auf seine Modelle ein, inmitten von Gerüchten über eine mögliche Übernahme durch OpenAI – ein Deal, der letztendlich scheiterte. Damals kommentierte Jared Kaplan, Chief Science Officer von Anthropic, gegenüber TechCrunch, es wäre „seltsam für uns, Claude an OpenAI zu verkaufen.“

Bemerkenswert ist, dass Anthropic nur einen Tag vor dem Abschneiden von OpenAIs Zugriff neue Ratenbeschränkungen für Claude Code ankündigte, unter Berufung auf „explosive Nutzung“ und in einigen Fällen Verstöße gegen seine Nutzungsbedingungen.