Anthropic sperrt OpenAI den Zugang zu Claude wegen Vertragsbruch

2025-08-04T16:34:51.000ZTheaiinsider

In einer signifikanten Eskalation der anhaltenden Rivalität im Bereich der künstlichen Intelligenz hat Anthropic OpenAI den Zugang zu seinen Claude KI-Modellen entzogen. Die Entscheidung, die am Montag, dem 4. August 2025, bekannt wurde, resultiert aus Vorwürfen, dass OpenAI Anthropic’s kommerzielle Nutzungsbedingungen verletzt hat, indem es die Claude-Plattform für wettbewerbsorientierte Benchmark-Zwecke missbrauchte.

Quellen zufolge hatte OpenAI Claude in seine proprietären internen Tools integriert, um dessen Leistung im Vergleich zu den eigenen Modellen in verschiedenen Bereichen wie Codierung, Schreiben und Sicherheit zu bewerten. Diese Aktivität, insbesondere die Nutzung von Claude’s Codierungstools (Claude Code) vor dem erwarteten Start von OpenAI’s GPT-5, wurde als direkter Verstoß gegen Anthropic’s Bedingungen angesehen, die Benutzern ausdrücklich verbieten, ihre KI zur Entwicklung konkurrierender Produkte oder zum Reverse Engineering und zur Duplizierung ihrer Dienste zu verwenden.

Christopher Nulty, Sprecher von Anthropic, bestätigte, dass OpenAI-Ingenieure auf Claude Code für Aufgaben wie Codierung, kreatives Schreiben und die Bewertung von Antworten auf sensible Themen wie Material über sexuellen Kindesmissbrauch (CSAM), Selbstverletzung und diffamierende Inhalte zugegriffen hatten. Diese Nutzung, so Anthropic, verstieß direkt gegen ihre Bedingungen, die darauf abzielen, technologische Integrität und fairen Wettbewerb zu schützen.

OpenAI verteidigte seine Handlungen und beteuerte, dass die Bewertung anderer KI-Systeme eine Standardpraxis in der Branche zur Fortschrittsbewertung und Sicherheitsverbesserung sei. Hannah Wong, Chief Communications Officer von OpenAI, zeigte sich enttäuscht über die Entscheidung von Anthropic, insbesondere da OpenAI’s API für Anthropic weiterhin zugänglich ist. Anthropic hat jedoch klargestellt, dass es OpenAI zwar weiterhin einen begrenzten API-Zugang für „standardisierte Benchmarking- und Sicherheitsbewertungen“ gewähren wird, die Entwicklungsnutzung jedoch verboten bleibt.

Dieser Vorfall verdeutlicht die eskalierenden Spannungen innerhalb der KI-Branche, in der Unternehmen erbittert um die Vorherrschaft bei Fähigkeiten wie Codierung und Argumentation wetteifern. Der Streit unterstreicht das empfindliche Gleichgewicht zwischen der Förderung offener Innovation und dem Schutz proprietärer Technologie. Branchenanalysten deuten an, dass solche Konflikte mit der Reifung des KI-Marktes und dem Anstieg der Einsätze häufiger werden.

Dies ist nicht der erste Fall, in dem Anthropic den API-Zugang für Wettbewerber einschränkt. Im Juni soll Anthropic dem KI-Codierungs-Startup Windsurf den Zugang entzogen haben, inmitten von Gerüchten über dessen Übernahme durch OpenAI. Darüber hinaus implementiert Anthropic ab dem 28. August wöchentliche Nutzungsobergrenzen für Claude Code, die alle kostenpflichtigen Stufen betreffen, teilweise um die intensive Nutzung zu adressieren und Missbrauch zu verhindern.

Der Entzug des Zugangs von OpenAI zu Claude kommt zu einem kritischen Zeitpunkt, der mit OpenAI’s Vorbereitungen für die GPT-5-Veröffentlichung zusammenfällt, die ein bedeutendes Ereignis in der Tech-Branche sein dürfte. Anthropic’s Schritt deutet auf eine strategische Anstrengung hin, seinen Wettbewerbsvorteil und sein geistiges Eigentum zu schützen, während sich das Rennen um die Entwicklung fortschrittlicher KI-Modelle intensiviert.

Anthropic sperrt OpenAI den Zugang zu Claude wegen Vertragsbruch - OmegaNext KI-Nachrichten