Les retards de Stargate révèlent les vrais goulots d'étranglement de l'IA
L’ambitieuse initiative d’infrastructure d’IA Stargate de SoftBank, d’une valeur de 500 milliards de dollars, autrefois annoncée comme une pierre angulaire pour le développement futur de l’AI, rencontre des retards significatifs, exposant les réalités complexes de la mise à l’échelle de telles entreprises technologiques colossales. Yoshimitsu Goto, directeur financier du groupe SoftBank, a publiquement reconnu la progression plus lente que prévu lors de l’appel aux résultats du premier trimestre 2025 de la société, sept mois après l’annonce très médiatisée du projet. Goto a décrit l’initiative comme progressant “plus lentement que d’habitude”, notant qu’elle “prend un peu plus de temps que notre calendrier initial”.
Les raisons fondamentales de ces revers résonnent avec les défis fréquemment rencontrés par les leaders informatiques d’entreprise gérant des infrastructures à grande échelle. Selon Goto, les retards proviennent du processus complexe de sélection des sites optimaux, qui implique “beaucoup d’options” et nécessite un temps considérable. En outre, le projet est confronté aux complexités des négociations avec les parties prenantes, exigeant des discussions approfondies pour établir un consensus entre les différentes parties, tout en abordant les problèmes techniques et de construction inhérents. Malgré le rythme plus lent, Goto a exprimé sa confiance dans la vision à long terme, soulignant une approche délibérée pour “construire le premier modèle avec succès”. SoftBank reste fidèle à son objectif d’investissement initial de 346 milliards de dollars (500 milliards de yens) sur quatre ans pour Stargate, confirmant que des sites majeurs ont été identifiés aux États-Unis, avec des préparations simultanées en cours sur plusieurs fronts. Les demandes de commentaires aux partenaires de Stargate, Nvidia, OpenAI et Oracle, sont restées sans réponse jusqu’à présent.
Ces défis offrent des informations essentielles aux directeurs des systèmes d’information (DSI) qui naviguent dans leurs propres décisions d’infrastructure d’IA. Sanchit Vir Gogia, analyste en chef et PDG chez Greyhound Research, considère la confirmation de Goto comme un reflet des problèmes récurrents rencontrés par les DSI, tels que les retards d’intégration des partenaires, les glissements d’activation de services et les engagements de livraison révisés de la part des fournisseurs de cloud et de centres de données. Oishi Mazumder, analyste senior chez Everest Group, a en outre souligné que “les retards de Stargate de SoftBank montrent que l’infrastructure d’IA n’est pas contrainte par le calcul ou le capital, mais par le terrain, l’énergie et l’alignement des parties prenantes”.
Les analystes soulignent que la mise à l’échelle de l’infrastructure d’IA va au-delà de la simple préparation technique des serveurs ou des unités de traitement graphique (GPU). Elle dépend considérablement de l’orchestration méticuleuse d’un large éventail de parties prenantes distribuées, y compris les fournisseurs de services publics, les organismes de réglementation, les partenaires de construction, les fournisseurs de matériel et les fournisseurs de services, chacun opérant avec ses propres délais et limitations distincts. Cette coordination complexe est aggravée par l’ampleur même de l’investissement infrastructurel requis. Goldman Sachs Research estime qu’environ 720 milliards de dollars de dépenses de réseau pourraient être nécessaires jusqu’en 2030 pour soutenir la croissance florissante des centres de données d’IA. La recherche de McKinsey suggère que les entreprises doivent équilibrer prudemment le déploiement rapide de capital avec une approche par phases, abordant les projets par étapes plutôt que de tenter des déploiements massifs initiaux. Mazumder avertit que même des initiatives d’infrastructure d’IA bien planifiées et échelonnées peuvent échouer sans une coordination précoce et complète, conseillant aux entreprises d’anticiper des horizons de déploiement de plusieurs années et de prioriser l’alignement interfonctionnel, en traitant l’infrastructure d’IA comme un projet d’investissement plutôt qu’une mise à niveau informatique conventionnelle.
Compte tenu des leçons tirées des premiers obstacles de Stargate, les analystes préconisent une approche pragmatique de la planification de l’infrastructure d’IA. Plutôt que d’attendre la maturation des mégaprojets, Mazumder souligne que l’adoption de l’IA en entreprise sera un processus graduel, et non instantané. Les DSI devraient donc s’orienter vers des stratégies modulaires et hybrides comportant des constructions d’infrastructure par phases. Cela implique de planifier une mise à l’échelle modulaire en déployant des charges de travail dans des environnements hybrides et multi-cloud, garantissant que les progrès peuvent se poursuivre même si des sites ou services clés subissent des retards. Gogia avertit que Stargate illustre vivement le risque de lier les engagements commerciaux en aval au succès d’une seule installation phare. Pour les DSI, le principal enseignement est d’intégrer la préparation externe dans leurs hypothèses de planification, d’établir des points de contrôle de coordination clairs avec tous les fournisseurs et d’éviter de s’engager sur des dates de mise en service qui présupposent un alignement parfait. Comme le dit si bien Gogia, cette situation est “moins une question de projets qui stagnent et plus une question de réorganisation de la livraison pour s’aligner sur la disponibilité de l’écosystème”. L’adoption généralisée des puces basées sur Arm par plus de 70 000 entreprises démontre déjà que des alternatives viables existent pour les organisations cherchant des améliorations immédiates de l’infrastructure pendant que des projets plus grands et plus complexes mûrissent.