Anthropic revoca acceso a Claude API de OpenAI por violación de TOS

Wired

Anthropic ha revocado el acceso API de OpenAI a sus modelos Claude, citando violaciones de los términos de servicio de Anthropic. La decisión, que entró en vigor el martes, se produce mientras OpenAI supuestamente se prepara para lanzar GPT-5, su modelo de IA de próxima generación que se rumorea que posee capacidades de codificación mejoradas.

“Claude Code se ha convertido en la opción preferida para los programadores de todo el mundo, por lo que no fue una sorpresa saber que el propio personal técnico de OpenAI también estaba utilizando nuestras herramientas de codificación antes del lanzamiento de GPT-5”, declaró Christopher Nulty, portavoz de Anthropic. “Desafortunadamente, esto es una violación directa de nuestros términos de servicio”. Los términos comerciales de Anthropic prohíben explícitamente a los clientes usar sus servicios para “construir un producto o servicio competidor, incluyendo el entrenamiento de modelos de IA competidores” o para “realizar ingeniería inversa o duplicar” sus ofertas.

Fuentes indican que OpenAI había estado integrando Claude en sus propias herramientas internas a través de un acceso especial para desarrolladores (APIs), en lugar de la interfaz de chat estándar. Esto permitió a OpenAI realizar pruebas, evaluando las capacidades de Claude en áreas como la codificación y la escritura creativa frente a sus propios modelos de IA. La compañía también habría utilizado Claude para evaluar respuestas a preguntas relacionadas con la seguridad, en categorías como material de abuso sexual infantil (CSAM), autolesiones y difamación, utilizando los resultados para refinar sus propios modelos.

Hannah Wong, directora de comunicaciones de OpenAI, expresó su decepción con la decisión. “Es un estándar de la industria evaluar otros sistemas de IA para comparar el progreso y mejorar la seguridad”, dijo Wong en un comunicado. “Si bien respetamos la decisión de Anthropic de cortar nuestro acceso a la API, es decepcionante considerando que nuestra API sigue estando disponible para ellos”.

A pesar del corte general de acceso, Nulty afirmó que Anthropic “continuará asegurando que OpenAI tenga acceso a la API para fines de evaluación comparativa y de seguridad, como es práctica estándar en toda la industria”. Sin embargo, Anthropic no aclaró cómo se mantendría este acceso específico o si difiere del acceso general a la API previamente revocado.

La táctica de restringir el acceso a la API de los competidores no es nueva en la industria tecnológica. Históricamente, empresas como Facebook han hecho lo mismo con rivales, como Vine (propiedad de Twitter), lo que llevó a acusaciones de comportamiento anticompetitivo. Más recientemente, Salesforce restringió el acceso de los competidores a ciertos datos a través de la API de Slack. Este tampoco es el primer movimiento de este tipo de Anthropic; el mes pasado, la compañía restringió el acceso directo de la startup de codificación de IA Windsurf a sus modelos en medio de rumores de una posible adquisición por parte de OpenAI, un acuerdo que finalmente fracasó. En ese momento, el director científico de Anthropic, Jared Kaplan, comentó a TechCrunch que sería “extraño que vendiéramos Claude a OpenAI”.

En particular, justo un día antes de cortar el acceso a OpenAI, Anthropic anunció nuevos límites de tasa en Claude Code, citando un “uso explosivo” y, en algunos casos, violaciones de sus términos de servicio.

Anthropic revoca acceso a Claude API de OpenAI por violación de TOS - OmegaNext Noticias IA