Anthropic Bloque l'Accès d'OpenAI à Claude pour Violation des Conditions
Dans une escalade significative de la rivalité en cours dans le secteur de l'intelligence artificielle, Anthropic a mis fin à l'accès d'OpenAI à ses modèles d'IA Claude. La décision, qui a été révélée le lundi 4 août 2025, découle d'allégations selon lesquelles OpenAI aurait violé les conditions commerciales de service d'Anthropic en utilisant abusivement la plateforme Claude à des fins d'évaluation comparative concurrentielle.
Des sources indiquent qu'OpenAI avait intégré Claude dans ses outils internes propriétaires pour évaluer ses performances par rapport à ses propres modèles dans divers domaines, y compris le codage, l'écriture et la sécurité. Cette activité, en particulier l'utilisation des outils de codage de Claude (Claude Code) avant le lancement anticipé de GPT-5 d'OpenAI, a été considérée comme une violation directe des conditions d'Anthropic, qui interdisent explicitement aux utilisateurs d'utiliser son IA pour développer des produits concurrents ou pour rétro-ingénierie et dupliquer ses services.
Le porte-parole d'Anthropic, Christopher Nulty, a confirmé que les ingénieurs d'OpenAI avaient accédé à Claude Code pour des tâches telles que le codage, l'écriture créative et l'évaluation des réponses à des sujets sensibles comme le matériel d'abus sexuel infantile (CSAM), l'automutilation et le contenu diffamatoire. Cette utilisation, selon Anthropic, a directement contredit leurs conditions, qui visent à protéger l'intégrité technologique et la concurrence loyale.
OpenAI, en réponse, a défendu ses actions, affirmant que l'évaluation d'autres systèmes d'IA est une pratique industrielle standard pour comparer les progrès et améliorer la sécurité. Hannah Wong, Directrice de la Communication d'OpenAI, a exprimé sa déception face à la décision d'Anthropic, d'autant plus que l'API d'OpenAI reste accessible à Anthropic. Cependant, Anthropic a clarifié que si elle continuera à autoriser OpenAI un accès limité à l'API pour des "évaluations comparatives et de sécurité standardisées", l'utilisation à des fins de développement reste interdite.
Cet incident souligne les tensions croissantes au sein de l'industrie de l'IA, où les entreprises se disputent férocement la domination dans des capacités telles que le codage et le raisonnement. Le différend souligne l'équilibre délicat entre la promotion de l'innovation ouverte et la protection de la technologie propriétaire. Les analystes de l'industrie suggèrent que de tels conflits deviennent plus courants à mesure que le marché de l'IA mûrit et que les enjeux augmentent.
Ce n'est pas la première fois qu'Anthropic restreint l'accès à l'API à ses concurrents. En juin, Anthropic aurait coupé l'accès à la startup de codage IA Windsurf au milieu de rumeurs de son acquisition par OpenAI. De plus, Anthropic met en œuvre des plafonds d'utilisation hebdomadaux pour Claude Code à partir du 28 août, affectant tous les niveaux payants, en partie pour gérer l'utilisation intensive et prévenir les abus.
La révocation de l'accès d'OpenAI à Claude intervient à un moment critique, coïncidant avec les préparatifs d'OpenAI pour le lancement de GPT-5, qui devrait être un événement significatif dans l'industrie technologique. La décision d'Anthropic suggère un effort stratégique pour sauvegarder son avantage concurrentiel et sa propriété intellectuelle alors que la course au développement de modèles d'IA avancés s'intensifie.