Demanda de Gemini Satura Infraestructura de IA de Google

Decoder

La infraestructura de inteligencia artificial (IA) de Google está experimentando actualmente una tensión significativa debido a un aumento en la demanda de sus últimos modelos de IA. Este desafío ha provocado una disponibilidad limitada para los usuarios que acceden a algunas de las capacidades de IA más avanzadas de la compañía.

Logan Kilpatrick, gerente de producto de Google, abordó recientemente las quejas de los usuarios sobre el acceso restringido a Gemini 2.5 Pro Deep Think. Kilpatrick explicó que el lanzamiento del modelo está limitado porque requiere “una gran cantidad de cómputo para funcionar”. Esta sustancial demanda de procesamiento llega en un momento en que las Unidades de Procesamiento de Tensor (TPU) diseñadas a medida por Google, esenciales para las cargas de trabajo de IA, ya están operando a su máxima capacidad.

Según Kilpatrick, las TPUs están luchando por mantenerse al día con el “crecimiento masivo” impulsado por varios factores. Estos incluyen la adopción generalizada del nuevo modelo de generación de video de Google, Veo, el mayor uso del Gemini 2.5 Pro estándar y la expansión más amplia de las funciones de IA a cientos de millones de usuarios.

Las frustraciones de los usuarios provienen del hecho de que, a pesar del sólido rendimiento de Gemini 2.5 Pro Deep Think en los puntos de referencia, su uso práctico se ve obstaculizado por las restricciones de acceso. Incluso los suscriptores de niveles premium, como Gemini Ultra, informan estar limitados a solo un puñado de solicitudes por día, mientras los sistemas de Google lidian con las crecientes demandas computacionales.

Demanda de Gemini Satura Infraestructura de IA de Google - OmegaNext Noticias IA