Anthropic blockiert OpenAI-Zugang zu Claude-Modellen: Vertragsbruch

Decoder

Anthropic hat OpenAIs Zugang zu seinen Claude-Künstliche-Intelligenz-Modellen blockiert und beruft sich dabei auf einen Vertragsbruch. Der Schritt erfolgt, während sich OpenAI auf die Veröffentlichung seines mit Spannung erwarteten GPT-5-Modells vorbereitet.

Laut Berichten von WIRED behauptet Anthropic, dass OpenAIs technische Teams die Codierungstools von Claude für interne Tests im Vorfeld des GPT-5-Starts genutzt haben. Anthropic’s kommerzielle Nutzungsbedingungen verbieten ausdrücklich das Reverse Engineering seiner Modelle und deren Verwendung bei der Entwicklung konkurrierender Produkte.

Christopher Nulty, ein Sprecher von Anthropic, sagte gegenüber WIRED: „Es war keine Überraschung zu erfahren, dass OpenAIs eigenes technisches Personal unsere Codierungstools auch vor dem Start von GPT-5 nutzte.“ Der Bericht führte detailliert aus, dass OpenAI Claude über den Standard-API-Zugriff in seine internen Entwicklungstools integriert hatte, um die Leistung von Claude systematisch mit seinen eigenen KI-Modellen zu vergleichen. Diese Tests umfassten Berichten zufolge eine breite Palette von Aufgaben, von Codierung und kreativem Schreiben bis zur Bewertung sicherheitssensibler Inhalte, einschließlich Material über sexuellen Kindesmissbrauch (CSAM), Selbstverletzung und Verleumdung.

Anthropic erklärte, dass es den API-Zugriff weiterhin „zu Benchmarking- und Sicherheitsbewertungszwecken“ gestatten werde, und beschrieb dies als gängige Branchenpraxis. Das Unternehmen stellte jedoch nicht klar, ob OpenAI auch weiterhin für diese eingeschränkte Form des Zugriffs in Frage käme.

Als Reaktion auf die Maßnahme beschrieb OpenAI-Sprecherin Hannah Wong die Entscheidung als „enttäuschend“, bekräftigte jedoch den Respekt des Unternehmens vor Anthropic’s Wahl. Sie betonte auch, dass OpenAI seinerseits Anthropic’s API-Zugriff nicht eingeschränkt habe.

Dies ist nicht das erste Mal, dass Anthropic den Zugang als Reaktion auf OpenAIs Aktivitäten sperrt. Im Juni schränkte Anthropic den Zugriff von Claude für das Codierungstool Windsurf erheblich ein, nachdem Berichte aufkamen, dass OpenAI eine Übernahme des Unternehmens in Betracht zog. Auf einer Branchenkonferenz nannte Anthropic-Mitbegründer Jared Kaplan sowohl begrenzte Computerressourcen als auch strategische Bedenken und erklärte: „Ich denke, es wäre seltsam, wenn wir Claude an OpenAI verkaufen würden.“ Obwohl diese Übernahme nicht zustande kam, da die Führungskräfte und Schlüsselmitarbeiter von Windsurf letztendlich zu Google wechselten und das Startup mit dem Code-Softwareanbieter Cognition fusionierte, hat OpenAI auch über diesen Weg keinen Zugriff mehr auf Anthropic’s API.

Der eskalierende Wettbewerb bei der KI-Codegenerierung scheint ein wesentlicher Faktor für Anthropic’s jüngste Entscheidungen zu sein. Interne Berichte deuten darauf hin, dass GPT-5 darauf abzielt, Konkurrenten bei Programmieraufgaben zu übertreffen, einem Bereich, in dem Claude Code historisch eine starke Führungsposition innehatte. Anthropic’s Maßnahmen scheinen strategisch darauf ausgelegt zu sein, die Integration oder Nutzung seiner proprietären Claude-Daten zur Verbesserung konkurrierender Modelle zu verhindern.