Guerre de l'IA: Anthropic bloque l'API Claude d'OpenAI avant le lancement de GPT-5
Dans un signe clair d’escalade de la concurrence au sein du secteur de l’intelligence artificielle, Anthropic aurait restreint l’accès d’OpenAI à sa série de modèles d’IA Claude via l’API (interface de programmation d’applications). Cette décision intervient au milieu des accusations d’Anthropic selon lesquelles des membres du personnel technique d’OpenAI auraient violé ses conditions de service en interagissant avec “Claude Code”, l’assistant de codage alimenté par l’IA d’Anthropic.
OpenAI avait précédemment obtenu un accès développeur spécial aux modèles Claude, une pratique courante dans l’industrie pour des activités telles que le benchmarking et la réalisation d’évaluations de sécurité. Cet accès permettait à OpenAI de comparer les sorties de ses propres modèles d’IA avec ceux de Claude. Cependant, Anthropic allègue maintenant que cet accès a été utilisé à mauvais escient, le personnel d’OpenAI ayant interagi avec Claude Code d’une manière qui a enfreint leur accord.
Le moment de ce différend est particulièrement notable, car il survient avant le lancement très attendu de GPT-5, le prochain modèle d’IA majeur d’OpenAI, qui devrait présenter des capacités de génération de code améliorées. Les modèles d’IA d’Anthropic, en particulier Claude Code, sont déjà populaires parmi les développeurs pour leur maîtrise du codage, soulignant un domaine clé de concurrence directe entre les deux leaders de l’IA. Les conditions de service commerciales d’Anthropic interdisent explicitement aux clients d’utiliser son service pour “construire un produit ou un service concurrent, y compris pour former des modèles d’IA concurrents” ou pour “rétro-ingénierie ou dupliquer” ses offres.
Christopher Nulty, porte-parole d’Anthropic, a été cité disant : “Claude Code est devenu le choix incontournable des codeurs du monde entier, il n’était donc pas surprenant d’apprendre que le propre personnel technique d’OpenAI utilisait également nos outils de codage avant le lancement de GPT-5. Malheureusement, il s’agit d’une violation directe de nos conditions de service.” Malgré le blocage partiel, Nulty a affirmé qu’Anthropic “continuera de garantir à OpenAI un accès API à des fins de benchmarking et d’évaluations de sécurité, comme c’est la pratique courante dans l’industrie.”
En réponse aux allégations d’Anthropic, la directrice de la communication d’OpenAI, Hannah Wong, aurait commenté : “Il est standard dans l’industrie d’évaluer d’autres systèmes d’IA pour évaluer les progrès et améliorer la sécurité. Bien que nous respections la décision d’Anthropic de couper notre accès API, c’est décevant étant donné que notre API leur reste disponible.”
Cet incident n’est pas un événement isolé dans le paysage très compétitif de l’IA. Le mois dernier, Anthropic, qui est soutenu par des géants de la technologie comme Google, Amazon et Microsoft, a restreint une autre société, Windsurf, d’accéder directement à ses modèles. Cela faisait suite à des rapports selon lesquels OpenAI prévoyait d’acquérir Windsurf, un accord qui a finalement échoué lorsque Google aurait acquis le PDG, le cofondateur et la technologie de Windsurf pour 2,4 milliards de dollars. Avant de couper l’accès d’OpenAI, Anthropic avait également mis en œuvre de nouvelles limites de débit hebdomadaires pour Claude Code, citant certains utilisateurs exécutant l’outil de codage IA “en continu en arrière-plan 24h/24 et 7j/7”.
De même, plus tôt cette année, OpenAI a accusé son rival chinois, DeepSeek, d’avoir enfreint ses conditions de service. OpenAI soupçonnait DeepSeek de “distillation”, une technique où un modèle d’IA est entraîné en interrogeant à plusieurs reprises un modèle propriétaire pour apprendre son comportement et ses sorties. Ces litiges en cours soulignent la rivalité intense et les mesures stratégiques que les entreprises prennent pour protéger leurs technologies d’IA propriétaires et leurs positions sur le marché.