Stargate-Verzögerungen: KI-Infrastruktur hakt an Land, Energie und Stakeholdern
SoftBanks ehrgeizige 500 Milliarden Dollar schwere KI-Infrastrukturinitiative Stargate, einst als Eckpfeiler für die zukünftige KI-Entwicklung gefeiert, stößt auf erhebliche Verzögerungen, die die komplexen Realitäten der Skalierung solch kolossaler technologischer Vorhaben aufzeigen. Yoshimitsu Goto, CFO der SoftBank Group, räumte den langsamer als erwarteten Fortschritt während der Gewinnmitteilung des Unternehmens für das erste Quartal 2025 öffentlich ein, sieben Monate nach der hochkarätigen Ankündigung des Projekts. Goto beschrieb die Initiative als „langsamer als üblich“ voranschreitend und bemerkte, dass sie „etwas länger als unser ursprünglicher Zeitplan dauert“.
Die Hauptgründe für diese Rückschläge ähneln den Herausforderungen, denen sich IT-Führungskräfte in Unternehmen bei der Verwaltung großer Infrastrukturen häufig gegenübersehen. Laut Goto resultieren die Verzögerungen aus dem komplexen Prozess der Auswahl optimaler Standorte, der „viele Optionen“ beinhaltet und beträchtliche Zeit erfordert. Darüber hinaus kämpft das Projekt mit den Komplexitäten von Stakeholder-Verhandlungen, die umfangreiche Diskussionen erfordern, um Konsens zwischen verschiedenen Parteien zu erzielen, sowie die Bewältigung inhärenter technischer und konstruktiver Probleme. Trotz des langsameren Tempos äußerte Goto Vertrauen in die langfristige Vision und betonte einen bewussten Ansatz, um „das erste Modell erfolgreich zu bauen“. SoftBank hält an seinem ursprünglichen Vierjahres-Investitionsziel von 346 Milliarden Dollar (500 Milliarden JPY) für Stargate fest und bestätigt, dass wichtige Standorte in den USA identifiziert wurden und die Vorbereitungen gleichzeitig an mehreren Fronten laufen. Anfragen an die Stargate-Partner Nvidia, OpenAI und Oracle blieben bisher unbeantwortet.
Diese Herausforderungen bieten wichtige Erkenntnisse für Chief Information Officers (CIOs), die ihre eigenen KI-Infrastruktur-Entscheidungen treffen müssen. Sanchit Vir Gogia, Chefanalyst und CEO bei Greyhound Research, sieht Gotos Bestätigung als Spiegelbild wiederkehrender Probleme, denen CIOs begegnen, wie Verzögerungen bei der Partnerintegration, Verzögerungen bei der Serviceaktivierung und überarbeitete Lieferzusagen von Cloud- und Rechenzentrumsanbietern. Oishi Mazumder, Senior Analystin bei Everest Group, hob zusätzlich hervor, dass „SoftBanks Stargate-Verzögerungen zeigen, dass KI-Infrastruktur nicht durch Rechenleistung oder Kapital, sondern durch Land, Energie und die Abstimmung der Stakeholder begrenzt ist“.
Analysten unterstreichen, dass die Skalierung von KI-Infrastruktur über die bloße technische Bereitschaft von Servern oder Grafikprozessoren (GPUs) hinausgeht. Sie hängt maßgeblich von der akribischen Orchestrierung einer vielfältigen Reihe verteilter Stakeholder ab, darunter Versorgungsunternehmen, Regulierungsbehörden, Baupartner, Hardwarelieferanten und Dienstleister, die jeweils mit ihren eigenen unterschiedlichen Zeitplänen und Einschränkungen arbeiten. Diese komplexe Koordination wird durch das schiere Ausmaß der erforderlichen Infrastrukturinvestitionen noch verstärkt. Goldman Sachs Research schätzt, dass bis 2030 etwa 720 Milliarden Dollar an Netzausgaben erforderlich sein könnten, um das aufstrebende Wachstum von KI-Rechenzentren zu unterstützen. McKinsey-Forschung legt nahe, dass Unternehmen eine schnelle Kapitalbereitstellung umsichtig mit einem phasenweisen Ansatz abgleichen müssen, indem sie Projekte in Etappen angehen, anstatt massive Vorab-Bereitstellungen zu versuchen. Mazumder warnt, dass selbst gut geplante, phasenweise KI-Infrastrukturinitiativen ohne frühzeitige und umfassende Koordination scheitern können, und rät Unternehmen, mehrjährige Rollout-Horizonte zu antizipieren und die funktionsübergreifende Abstimmung vorab zu priorisieren, indem sie KI-Infrastruktur als Kapitalprojekt und nicht als konventionelles IT-Upgrade behandeln.
Angesichts der Lehren aus den anfänglichen Hürden von Stargate plädieren Analysten für einen pragmatischen Ansatz bei der Planung der KI-Infrastruktur. Anstatt auf die Reifung von Megaprojekten zu warten, betont Mazumder, dass die Einführung von KI in Unternehmen ein gradueller und kein sofortiger Prozess sein wird. CIOs sollten sich daher auf modulare, hybride Strategien konzentrieren, die phasenweise Infrastrukturaufbauten beinhalten. Dies beinhaltet die Planung modularer Skalierung durch die Bereitstellung von Workloads in hybriden und Multi-Cloud-Umgebungen, um sicherzustellen, dass der Fortschritt auch dann fortgesetzt werden kann, wenn wichtige Standorte oder Dienste Verzögerungen erfahren. Gogia warnt, dass Stargate anschaulich das Risiko verdeutlicht, nachgelagerte Geschäftsverpflichtungen an den Erfolg einer einzelnen Flaggschiff-Einrichtung zu knüpfen. Für CIOs ist die entscheidende Erkenntnis, die externe Bereitschaft in ihre Planungsannahmen zu integrieren, klare Koordinationspunkte mit allen Anbietern festzulegen und die Verpflichtung zu Go-Live-Terminen zu vermeiden, die eine perfekte Abstimmung voraussetzen. Wie Gogia treffend formuliert, geht es bei dieser Situation „weniger um Projekte, die zum Stillstand kommen, und mehr um die Neuanordnung der Lieferung, um sie an die Verfügbarkeit des Ökosystems anzupassen“. Die weit verbreitete Einführung von Arm-basierten Chips durch über 70.000 Unternehmen zeigt bereits, dass praktikable Alternativen für Organisationen existieren, die sofortige Infrastrukturverbesserungen anstreben, während größere, komplexere Projekte reifen.