Guerra de IA: Anthropic bloquea a OpenAI el acceso a Claude API antes del lanzamiento de GPT-5
En una clara señal de la escalada de competencia en el sector de la inteligencia artificial, Anthropic ha restringido, según los informes, el acceso de OpenAI a su serie de modelos de IA Claude a través de la API (interfaz de programación de aplicaciones). La medida se produce en medio de acusaciones de Anthropic de que miembros del personal técnico de OpenAI violaron sus términos de servicio al interactuar con “Claude Code”, el asistente de codificación impulsado por IA de Anthropic.
A OpenAI se le había concedido previamente un acceso especial de desarrollador a los modelos Claude, una práctica común en la industria para actividades como la evaluación comparativa (benchmarking) y la realización de evaluaciones de seguridad. Este acceso permitía a OpenAI comparar los resultados de sus propios modelos de IA con los de Claude. Sin embargo, Anthropic ahora alega que este acceso fue mal utilizado, con personal de OpenAI interactuando con Claude Code de maneras que infringían su acuerdo.
El momento de esta disputa es particularmente notable, ya que ocurre antes del ampliamente anticipado lanzamiento de GPT-5, el próximo modelo de IA importante de OpenAI, que se espera que cuente con capacidades mejoradas de generación de código. Los modelos de IA de Anthropic, especialmente Claude Code, ya son populares entre los desarrolladores por su competencia en codificación, lo que destaca un área clave de competencia directa entre los dos líderes de la IA. Los términos de servicio comerciales de Anthropic prohíben explícitamente a los clientes usar su servicio para “construir un producto o servicio competidor, incluyendo el entrenamiento de modelos de IA competidores” o para “realizar ingeniería inversa o duplicar” sus ofertas.
Christopher Nulty, portavoz de Anthropic, fue citado diciendo: “Claude Code se ha convertido en la opción preferida para los codificadores de todo el mundo, por lo que no fue una sorpresa saber que el propio personal técnico de OpenAI también estaba utilizando nuestras herramientas de codificación antes del lanzamiento de GPT-5. Desafortunadamente, esto es una violación directa de nuestros términos de servicio”. A pesar del bloqueo parcial, Nulty afirmó que Anthropic “seguirá asegurando que OpenAI tenga acceso a la API para fines de evaluación comparativa y de seguridad, como es práctica estándar en toda la industria”.
En respuesta a las afirmaciones de Anthropic, la directora de comunicaciones de OpenAI, Hannah Wong, comentó, según los informes: “Es un estándar de la industria evaluar otros sistemas de IA para comparar el progreso y mejorar la seguridad. Si bien respetamos la decisión de Anthropic de cortar nuestro acceso a la API, es decepcionante considerando que nuestra API permanece disponible para ellos”.
Este incidente no es un evento aislado en el altamente competitivo panorama de la IA. El mes pasado, Anthropic, que está respaldada por gigantes tecnológicos como Google, Amazon y Microsoft, restringió a otra compañía, Windsurf, el acceso directo a sus modelos. Esto siguió a los informes de que OpenAI planeaba adquirir Windsurf, un acuerdo que finalmente fracasó cuando Google, según los informes, aseguró al CEO, cofundador y tecnología de Windsurf por 2.400 millones de dólares. Antes de cortar el acceso de OpenAI, Anthropic también había implementado nuevos límites de tasa semanales para Claude Code, citando a algunos usuarios que ejecutaban la herramienta de codificación de IA “continuamente en segundo plano 24/7”.
De manera similar, a principios de este año, OpenAI acusó a su rival chino, DeepSeek, de incumplir sus términos de servicio. OpenAI sospechaba que DeepSeek realizaba “destilación”, una técnica en la que un modelo de IA se entrena consultando repetidamente un modelo propietario para aprender su comportamiento y resultados. Estas disputas en curso subrayan la intensa rivalidad y las medidas estratégicas que las empresas están tomando para proteger sus tecnologías de IA propietarias y sus posiciones en el mercado.