Violation des TOS : Anthropic coupe l'accès de Claude API à OpenAI

Wired

Anthropic a révoqué l’accès API d’OpenAI à ses modèles Claude, citant des violations des conditions d’utilisation d’Anthropic. La décision, qui a pris effet mardi, intervient alors qu’OpenAI se préparerait à lancer GPT-5, son modèle d’IA de nouvelle génération qui, selon les rumeurs, posséderait des capacités de codage améliorées.

« Claude Code est devenu le choix privilégié des codeurs du monde entier, il n’a donc pas été surprenant d’apprendre que le personnel technique d’OpenAI utilisait également nos outils de codage avant le lancement de GPT-5 », a déclaré Christopher Nulty, porte-parole d’Anthropic. « Malheureusement, il s’agit d’une violation directe de nos conditions d’utilisation. » Les conditions commerciales d’Anthropic interdisent explicitement aux clients d’utiliser ses services pour « construire un produit ou un service concurrent, y compris pour entraîner des modèles d’IA concurrents » ou pour « faire de l’ingénierie inverse ou dupliquer » ses offres.

Des sources indiquent qu’OpenAI avait intégré Claude dans ses propres outils internes via un accès développeur spécial (APIs), plutôt que l’interface de chat standard. Cela a permis à OpenAI de mener des tests, évaluant les capacités de Claude dans des domaines comme le codage et l’écriture créative par rapport à ses propres modèles d’IA. L’entreprise aurait également utilisé Claude pour évaluer les réponses aux invites liées à la sécurité concernant des catégories telles que le matériel d’abus sexuel d’enfants (CSAM), l’automutilation et la diffamation, utilisant les résultats pour affiner ses propres modèles.

Hannah Wong, directrice de la communication d’OpenAI, a exprimé sa déception face à cette décision. « Il est standard dans l’industrie d’évaluer d’autres systèmes d’IA pour évaluer les progrès et améliorer la sécurité », a déclaré Wong dans un communiqué. « Bien que nous respections la décision d’Anthropic de couper notre accès API, c’est décevant étant donné que notre API reste disponible pour eux. »

Malgré la coupure d’accès général, Nulty a affirmé qu’Anthropic « continuera de garantir qu’OpenAI dispose d’un accès API à des fins de benchmarking et d’évaluations de sécurité, comme c’est la pratique courante dans l’industrie. » Cependant, Anthropic n’a pas précisé comment cet accès spécifique serait maintenu ou s’il diffère de l’accès API général précédemment révoqué.

La tactique de restriction de l’accès API des concurrents n’est pas nouvelle dans l’industrie technologique. Historiquement, des entreprises comme Facebook ont fait de même avec des rivaux, tels que Vine (propriété de Twitter), ce qui a conduit à des allégations de comportement anticoncurrentiel. Plus récemment, Salesforce a restreint l’accès des concurrents à certains données via l’API Slack. Ce n’est pas non plus le premier mouvement de ce type d’Anthropic ; le mois dernier, la société a restreint l’accès direct de la startup de codage IA Windsurf à ses modèles au milieu de rumeurs d’une acquisition potentielle par OpenAI – un accord qui a finalement échoué. À l’époque, le responsable scientifique d’Anthropic, Jared Kaplan, avait commenté à TechCrunch qu’il serait « étrange pour nous de vendre Claude à OpenAI. »

Notamment, juste un jour avant de couper l’accès d’OpenAI, Anthropic a annoncé de nouvelles limites de débit sur Claude Code, citant une « utilisation explosive » et, dans certains cas, des violations de ses conditions d’utilisation.