La demande de Gemini met la structure IA de Google à rude épreuve
L’infrastructure d’intelligence artificielle (IA) de Google connaît actuellement une tension significative en raison d’une forte augmentation de la demande pour ses derniers modèles d’IA. Ce défi a entraîné une disponibilité limitée pour les utilisateurs accédant à certaines des capacités d’IA les plus avancées de l’entreprise.
Logan Kilpatrick, chef de produit chez Google, a récemment répondu aux plaintes des utilisateurs concernant l’accès restreint à Gemini 2.5 Pro Deep Think. Kilpatrick a expliqué que le déploiement du modèle est contraint car il nécessite “une énorme quantité de calcul pour fonctionner”. Cette demande de traitement substantielle survient à un moment où les unités de traitement tensoriel (TPU) conçues sur mesure par Google, essentielles pour les charges de travail d’IA, fonctionnent déjà à leur capacité maximale.
Selon Kilpatrick, les TPU ont du mal à suivre la “croissance massive” tirée par plusieurs facteurs. Ceux-ci incluent l’adoption généralisée du nouveau modèle de génération de vidéo de Google, Veo, l’utilisation accrue du Gemini 2.5 Pro standard et le déploiement plus large des fonctionnalités d’IA auprès de centaines de millions d’utilisateurs.
Les frustrations des utilisateurs proviennent du fait que, malgré les solides performances de Gemini 2.5 Pro Deep Think en matière de référence, son utilisation pratique est entravée par des restrictions d’accès. Même les abonnés aux niveaux premium, tels que Gemini Ultra, signalent être limités à seulement une poignée de requêtes par jour, car les systèmes de Google font face aux demandes computationnelles croissantes.