KI-Boom: Milliarden fließen in Rechenzentren
Die globale Suche nach künstlicher Intelligenz, insbesondere das Streben nach Superintelligenz, befeuert einen beispiellosen Boom im Bau von Rechenzentren. Diese weitläufigen Anlagen, die von außen oft unscheinbar wirken, werden zu den neuen Symbolen der Computer-Front, da sie die fortschrittliche Infrastruktur beherbergen, die für das Training großer Sprachmodelle von Branchenführern wie OpenAI, Google und DeepSeek unerlässlich ist. Diese intensive Nachfrage treibt einen Ausgabenanstieg bei großen Technologieunternehmen und sogar Nationalstaaten an, die Milliarden in immer größere Rechenzentrums-Cluster investieren.
Im Kern dieser Einrichtungen befinden sich Racks leistungsstarker Prozessoren, bekannt als Grafikprozessoren (GPUs). Im Gegensatz zu herkömmlichen Zentralprozessoren (CPUs), die Aufgaben sequenziell bearbeiten, zeichnen sich GPUs durch Parallelverarbeitung aus, was sie ideal für die massiven, gleichzeitigen Berechnungen macht, die zum Trainieren komplexer KI-Modelle erforderlich sind. Viele KI-Rechenzentren beherbergen Zehntausende dieser GPUs, wobei ein einzelnes Rack der neuesten KI-Chips den gleichen Strombedarf hat wie 10 bis 15 Racks in einem herkömmlichen Rechenzentrum. Wie Chase Lochmiller, CEO von Crusoe, einem Startup, das ein großes Rechenzentrum für OpenAI baut, es ausdrückt: „Das Rechenzentrum ist der Computer.“
Trotz einer kurzen Phase der Investoren-Besorgnis Anfang 2025 nach dem Aufkommen eines hocheffizienten KI-Modells von DeepSeek hat sich der Infrastruktur-Baurausch nur noch verstärkt. Microsoft, Alphabet, Amazon und Meta planen gemeinsam, ihre Kapitalausgaben im Jahr 2025 auf über 300 Milliarden Dollar zu erhöhen. Das IT-Beratungsunternehmen Gartner prognostiziert, dass die Gesamtausgaben für Rechenzentren in diesem Jahr 475 Milliarden Dollar erreichen werden, ein Sprung von 42 Prozent gegenüber 2024. Einige Prognosen, wie die von McKinsey, deuten auf einen noch größeren Bedarf hin und sagen 5,2 Billionen Dollar an Rechenzentrumsinvestitionen bis 2030 voraus, um die globale KI-Nachfrage zu decken. Meta-Gründer Mark Zuckerberg kündigte kürzlich an, dass sein Unternehmen “Hunderte Milliarden Dollar in Rechenleistung investiert, um Superintelligenz aufzubauen”, einschließlich Plänen für Rechenzentrums-Cluster, die groß genug sind, um den Großteil Manhattans abzudecken. Jensen Huang, CEO von Nvidia, betonte die wesentliche Natur dieser Infrastruktur und erklärte: „Ich kenne kein Unternehmen, keine Branche [oder] kein Land, das Intelligenz für optional hält.“
Der Bau dieser KI-Anlagen der nächsten Generation ist jedoch weitaus komplexer, kostspieliger und energieintensiver als frühere Computersysteme. Andy Lawrence, Forschungsdirektor des Uptime Institute, weist auf das erhebliche Risiko hin: „Plötzlich Rechenzentren zu bauen, die hinsichtlich des Stromverbrauchs so viel dichter sind, für die die Chips zehnmal so viel kosten, für die es eine unbewiesene Nachfrage gibt und die den gesamten verfügbaren Netzstrom und geeigneten Immobilien verschlingen – all das ist eine außergewöhnliche Herausforderung und ein Glücksspiel.“
Der dramatische Anstieg des Strombedarfs neuer KI-Chips hat das Rechenzentrumsdesign revolutioniert. Nvidias neueste Prozessoren erzeugen so viel Wärme, dass herkömmliche Klimaanlagen nicht ausreichen. Steven Carlini, Vizepräsident für Innovation und Rechenzentren bei Schneider Electric, erklärt, dass „alles auf den Kopf gestellt wurde“, wobei Kühl- und Stromversorgungsgeräte jetzt 70 Prozent der Grundfläche der Anlage einnehmen, verglichen mit den Servern. Während ein „großes“ Rechenzentrum vor 20 Jahren vielleicht 20 Megawatt Strom benötigte, sind die heutigen KI-Anlagen für ein Gigawatt oder mehr ausgelegt. Diese schnelle Entwicklung ist so tiefgreifend, dass Meta Berichten zufolge 2023 ein im Bau befindliches Rechenzentrum in Texas abriss, um es für leistungsstärkere Chips neu zu gestalten, bevor der Bau wieder aufgenommen wurde.
Die unerbittliche Nachfrage nach Rechenleistung befeuert auch einen Immobilienboom, da Hyperscaler – große Cloud-Anbieter wie Amazon, Microsoft und Google – riesige Rechenzentrums-Cluster entwickeln. Diese „KI-Fabriken“ werden oft für ein einzelnes Unternehmen oder sogar einen Nationalstaat gebaut, eine Abkehr vom traditionellen Modell gemeinsam genutzter Server. Zu den Schlüsselfaktoren für die Standortwahl gehören billiges Land, Steueranreize, Zugang zu Unterseekabeln und, entscheidend, reichlich und erschwingliche Energie. Gebiete wie Nord-Virginia, Atlanta, Columbus, Dallas und Phoenix sind aufgrund dieser Vorteile zu wichtigen Hubs geworden. Zum Beispiel baut Crusoe in Abilene, Texas, für OpenAI acht Rechenzentrumsgebäude mit insgesamt 1,2 Gigawatt als Teil seines ehrgeizigen 100-Milliarden-Dollar-Stargate-Projekts, das etwa 400.000 Nvidia-GPUs von Oracle umfassen wird. Meta baut eine 2-GW-Anlage in Richland, Louisiana, während Elon Musks xAI 1,2 GW an mehreren Standorten in Memphis, Tennessee, anstrebt. Amazon entwickelt einen 2,2-GW-Standort für Anthropic in New Carlisle, Indiana.
Das globale Rennen um KI-Kapazität geht über die USA hinaus. Eine Studie der Universität Oxford ergab, dass fast 95 Prozent der kommerziell verfügbaren KI-Rechenleistung von US-amerikanischen und chinesischen Technologiekonzernen betrieben werden. Chinas Bestreben hat zum Bau von Rechenzentren in abgelegenen Regionen wie Xinjiang und der Inneren Mongolei geführt. Nach einer Entspannung wird Nvidia einige KI-Chip-Lieferungen nach China wieder aufnehmen, obwohl die US-Exportkontrollen für die leistungsstärksten Halbleiter bestehen bleiben. Malaysias Johor Bahru entwickelt sich zu einem KI-Hub für chinesische Entwickler. Golfstaaten investieren ebenfalls stark, wobei die VAE einen massiven Rechenzentrums-Cluster für OpenAI und andere US-Unternehmen als Teil des Stargate-Projekts angekündigt haben, der bis zu 5 GW Leistung anstrebt. Saudi-Arabiens neues staatliches KI-Unternehmen Humain plant den Bau von „KI-Fabriken“ mit Hunderttausenden von Nvidia-Chips. Die EU beabsichtigt derweil, 200 Milliarden Euro zu mobilisieren, um ein „KI-Kontinent“ zu werden, und plant fünf „KI-Gigafactories“.
Der eskalierende Energieverbrauch dieser Anlagen ist ein großes Problem. Die Internationale Energieagentur prognostiziert, dass der Energieverbrauch von Rechenzentren von 415 Terawattstunden im Jahr 2024 auf über 945 TWh bis 2030 ansteigen wird, was ungefähr dem derzeitigen Stromverbrauch Japans entspricht. Dieser Anstieg drängt die Betreiber dazu, jede verfügbare Energiequelle zu nutzen; xAI beispielsweise nutzte in Memphis Gasturbinen, während es auf den Netzanschluss wartete. Alle vier großen Hyperscaler haben kürzlich Verträge für Kernenergie abgeschlossen. Der immense und konstante Stromverbrauch, gepaart mit Nachfragespitzen während des KI-Modelltrainings, stellt die Versorgungsunternehmen vor erhebliche Herausforderungen und birgt das Risiko von Netzinstabilität und Ausfällen.
Der Wasserverbrauch ist ein weiteres kritisches Problem. Hyperscale- und Colocation-Standorte in den USA verbrauchten 2023 direkt 55 Milliarden Liter Wasser, wobei der indirekte Verbrauch (im Zusammenhang mit dem Energieverbrauch) auf jährlich 800 Milliarden Liter geschätzt wird, vergleichbar mit dem jährlichen Wasserverbrauch von fast 2 Millionen US-Haushalten. Technologiegiganten erkennen dies an: Microsoft meldete, dass 42 Prozent seines Wassers im Jahr 2023 aus „wassergestressten“ Gebieten stammten, und Google fast 30 Prozent aus Wassereinzugsgebieten mit Erschöpfungsrisiko. Rechenzentren in dürregefährdeten Staaten wie Arizona und Texas sowie Entwicklungen in Georgia haben lokale Bedenken hinsichtlich Wasserknappheit und erhöhter kommunaler Wasserkosten ausgelöst.
Um der extremen Hitze, die von KI-Chips erzeugt wird, entgegenzuwirken, sind fortschrittliche Kühlmethoden unerlässlich. Etwa zwei Fünftel der Energie eines KI-Rechenzentrums fließen in die Kühlung. Während frühe Rechenzentren auf industrielle Klimaanlagen angewiesen waren, erfordert die erhöhte Chipdichte nun ausgefeiltere Lösungen. Betreiber installieren Rohre mit kaltem Wasser zur Wärmeübertragung, oft unter Verwendung großer Kühltürme, die durch Verdunstung enorme Wassermengen verbrauchen (etwa 19.000 Liter pro Minute pro Turm). Effizientere, geschlossene Kühlsysteme werden ebenfalls eingesetzt. Die neueste Innovation ist die „Direct-to-Chip“-Kühlung, bei der Kühlmittel direkt über wärmeerzeugende Komponenten fließt. Portugals Start Campus plant beispielsweise, Meerwasser als Wärmesenke für seinen kommenden 1,2-GW-KI-Rechenzentrums-Hub zu nutzen, wobei täglich über 1,4 Millionen Kubikmeter durch Wärmetauscher zirkuliert werden, bevor es in den Ozean zurückgeführt wird.
Trotz der bereits investierten Hunderte Milliarden Dollar zeigen die Führungskräfte des Silicon Valley keine Anzeichen einer Verlangsamung. Nvidia prognostiziert, dass seine „Rubin Ultra“-Systeme der nächsten Generation, die in zwei Jahren auf den Markt kommen, über 500 GPUs in einem einzigen Rack mit einem Verbrauch von 600 Kilowatt unterbringen werden, was neue Energie- und Kühlherausforderungen mit sich bringt. Sam Altman von OpenAI stellt sich Anlagen „weit jenseits“ von 10 GW vor, die „neue Technologien und neue Konstruktionen“ erfordern. Dieses Bestreben wird durch das „Skalierungsgesetz“ der KI untermauert – die Überzeugung, dass mehr Daten und Rechenleistung endlos größere Intelligenz hervorbringen werden. Dies treibt Rechenzentrumsdesigner zu ständiger Innovation an, und der unermüdliche Bau zeigt keine Anzeichen einer Abschwächung. Wie Mohamed Awad, der das Infrastrukturgeschäft beim Chipdesigner Arm leitet, zusammenfasste: „Wird es irgendwann langsamer werden? Es muss. Aber wir sehen das in absehbarer Zeit nicht geschehen.“