IA : Des Milliards Alimentent le Boom des Centres de Données
La quête mondiale de l’intelligence artificielle, et particulièrement celle de la superintelligence, alimente un boom sans précédent dans la construction de centres de données. Ces vastes installations, souvent indéfinissables de l’extérieur, deviennent les nouveaux symboles de la frontière informatique, abritant l’infrastructure avancée essentielle pour l’entraînement de grands modèles linguistiques développés par des leaders de l’industrie comme OpenAI, Google et DeepSeek. Cette demande intense entraîne une flambée des dépenses de la part des grandes entreprises technologiques et même des États-nations, qui injectent des milliards dans des clusters de centres de données toujours plus grands.
Au cœur de ces installations se trouvent des racks de puissants processeurs connus sous le nom d’unités de traitement graphique (GPU). Contrairement aux unités centrales de traitement (CPU) traditionnelles qui gèrent les tâches séquentiellement, les GPU excellent dans le traitement parallèle, ce qui les rend idéaux pour les calculs massifs et simultanés requis pour entraîner des modèles d’IA complexes. De nombreux centres de données IA abritent des dizaines de milliers de ces GPU, un seul rack des dernières puces IA demandant la même puissance que 10 à 15 racks dans un centre de données conventionnel. Comme le dit Chase Lochmiller, PDG de Crusoe, une start-up construisant un important centre de données pour OpenAI : « Le centre de données est l’ordinateur. »
Malgré une brève période d’inquiétude des investisseurs début 2025 suite à l’émergence d’un modèle d’IA très efficace de DeepSeek, la frénésie de construction d’infrastructures n’a fait que s’intensifier. Microsoft, Alphabet, Amazon et Meta prévoient collectivement d’augmenter leurs dépenses d’investissement à plus de 300 milliards de dollars en 2025. Le cabinet de conseil en informatique Gartner prévoit que les dépenses totales en centres de données atteindront 475 milliards de dollars cette année, soit un bond de 42 % par rapport à 2024. Certaines prévisions, comme celle de McKinsey, suggèrent un besoin encore plus grand, prédisant 5 200 milliards de dollars d’investissements dans les centres de données d’ici 2030 pour répondre à la demande mondiale d’IA. Le fondateur de Meta, Mark Zuckerberg, a récemment annoncé l’investissement de son entreprise de « centaines de milliards de dollars dans la puissance de calcul pour construire la superintelligence », y compris des plans pour des clusters de centres de données suffisamment grands pour couvrir la majeure partie de Manhattan. Jensen Huang, PDG de Nvidia, a souligné la nature essentielle de cette infrastructure, déclarant : « Je ne connais aucune entreprise, industrie [ou] pays qui pense que l’intelligence est facultative. »
Cependant, la construction de ces installations d’IA de nouvelle génération est bien plus complexe, coûteuse et énergivore que les systèmes informatiques précédents. Andy Lawrence, directeur exécutif de la recherche à l’Uptime Institute, souligne le pari considérable que cela représente : « Commencer soudainement à construire des centres de données qui sont tellement plus denses en termes de consommation d’énergie, pour lesquels les puces coûtent 10 fois plus cher, pour lesquels la demande n’est pas prouvée et qui dévorent toute l’énergie disponible du réseau et l’immobilier approprié – tout cela est un défi extraordinaire et un pari. »
L’augmentation spectaculaire de la demande en énergie des nouvelles puces IA a révolutionné la conception des centres de données. Les derniers processeurs de Nvidia génèrent tellement de chaleur que la climatisation traditionnelle est insuffisante. Steven Carlini, vice-président de l’Innovation et des Centres de Données chez Schneider Electric, explique que « Tout a été chamboulé », les équipements de refroidissement et d’alimentation occupant désormais 70 % de l’empreinte de l’installation, comparativement aux serveurs. Alors qu’un « grand » centre de données il y a 20 ans aurait pu nécessiter 20 mégawatts d’électricité, les installations IA actuelles sont conçues pour un gigawatt ou plus. Cette évolution rapide est si profonde que Meta aurait démoli un centre de données en développement au Texas en 2023 pour le redessiner pour des puces plus puissantes avant de reprendre la construction.
La demande incessante de puissance de calcul stimule également un boom immobilier, car les hyperscalers – grands fournisseurs de cloud comme Amazon, Microsoft et Google – développent de vastes clusters de centres de données. Ces « usines d’IA » sont souvent construites pour une seule entreprise ou même un État-nation, ce qui s’écarte du modèle traditionnel des serveurs partagés. Les facteurs clés pour le choix de l’emplacement incluent des terrains bon marché, des incitations fiscales, l’accès aux câbles sous-marins et, de manière critique, une énergie abondante et abordable. Des régions comme le nord de la Virginie, Atlanta, Columbus, Dallas et Phoenix sont devenues des hubs majeurs grâce à ces avantages. Par exemple, Crusoe construit huit bâtiments de centres de données totalisant 1,2 gigawatt à Abilene, Texas, pour OpenAI, dans le cadre de son ambitieux projet Stargate de 100 milliards de dollars, qui inclura environ 400 000 GPU Nvidia fournis par Oracle. Meta construit une installation de 2 GW à Richland, Louisiane, tandis que xAI d’Elon Musk vise 1,2 GW sur plusieurs sites à Memphis, Tennessee. Amazon développe un site de 2,2 GW pour Anthropic à New Carlisle, Indiana.
La course mondiale à la capacité d’IA s’étend au-delà des États-Unis. Une étude de l’Université d’Oxford a révélé que près de 95 % de la puissance de calcul d’IA disponible commercialement est exploitée par des groupes technologiques américains et chinois. La dynamique de la Chine a conduit à la construction de centres de données dans des régions reculées comme le Xinjiang et la Mongolie intérieure. Suite à une détente, Nvidia devrait reprendre certaines livraisons de puces IA vers la Chine, bien que les contrôles d’exportation américains sur les semi-conducteurs les plus puissants demeurent. Johor Bahru en Malaisie émerge comme un hub d’IA pour les développeurs chinois. Les États du Golfe investissent également massivement, les Émirats arabes unis ayant annoncé un vaste cluster de centres de données pour OpenAI et d’autres entreprises américaines dans le cadre du projet Stargate, visant jusqu’à 5 GW de puissance. La nouvelle entreprise d’IA publique d’Arabie saoudite, Humain, prévoit de construire des « usines d’IA » avec des centaines de milliers de puces Nvidia. L’UE, quant à elle, a l’intention de mobiliser 200 milliards d’euros pour devenir un « continent de l’IA », en planifiant cinq « gigafactories d’IA ».
La consommation énergétique croissante de ces installations est une préoccupation majeure. L’Agence Internationale de l’Énergie prévoit que l’utilisation d’énergie des centres de données passera de 415 térawattheures en 2024 à plus de 945 TWh d’ici 2030, soit à peu près l’équivalent de la consommation actuelle d’électricité du Japon. Cette flambée pousse les opérateurs à utiliser toute source d’énergie disponible ; xAI, par exemple, a utilisé des turbines à gaz à Memphis en attendant la connexion au réseau. Les quatre principaux hyperscalers ont récemment conclu des accords pour l’énergie nucléaire. L’énorme et constante consommation d’énergie, couplée aux pics de demande pendant l’entraînement des modèles d’IA, pose des défis significatifs aux fournisseurs de services publics, risquant l’instabilité du réseau et les pannes.
La consommation d’eau est une autre question cruciale. Les sites hyperscale et de colocation aux États-Unis ont consommé directement 55 milliards de litres d’eau en 2023, la consommation indirecte (liée à l’utilisation d’énergie) étant estimée à 800 milliards de litres par an, comparable à la consommation annuelle d’eau de près de 2 millions de foyers américains. Les géants de la technologie le reconnaissent, Microsoft signalant que 42 % de son eau provenait de zones de « stress hydrique » en 2023, et Google près de 30 % de bassins versants présentant un risque d’épuisement. Les centres de données situés dans des États sujets à la sécheresse comme l’Arizona et le Texas, ainsi que les développements en Géorgie, ont suscité des inquiétudes locales concernant les pénuries d’eau et l’augmentation des coûts de l’eau municipale.
Pour combattre la chaleur extrême générée par les puces IA, des méthodes de refroidissement avancées sont essentielles. Environ les deux cinquièmes de l’énergie d’un centre de données IA sont consacrés au refroidissement. Alors que les premiers centres de données reposaient sur la climatisation industrielle, l’augmentation de la densité des puces nécessite désormais des solutions plus sophistiquées. Les opérateurs installent des tuyaux d’eau froide pour transférer la chaleur, utilisant souvent de grandes tours de refroidissement qui consomment de vastes quantités d’eau par évaporation (environ 19 000 litres par minute par tour). Des systèmes de refroidisseurs en circuit fermé plus efficaces sont également adoptés. La dernière innovation est le refroidissement « direct au chip », où le liquide de refroidissement circule directement sur les composants générateurs de chaleur. Le Start Campus du Portugal, par exemple, prévoit d’utiliser l’eau de mer comme dissipateur thermique pour son futur hub de centres de données IA de 1,2 GW, faisant circuler plus de 1,4 million de mètres cubes par jour à travers des échangeurs de chaleur avant de la retourner à l’océan.
Malgré les centaines de milliards de dollars déjà investis, les leaders de la Silicon Valley ne montrent aucun signe de ralentissement. Nvidia prévoit que ses systèmes de prochaine génération « Rubin Ultra », attendus dans deux ans, regrouperont plus de 500 GPU dans un seul rack consommant 600 kilowatts, présentant de nouveaux défis énergétiques et de refroidissement. Sam Altman d’OpenAI envisage des installations « bien au-delà » de 10 GW, nécessitant de « nouvelles technologies et de nouvelles constructions ». Cette ambition est étayée par la « loi de mise à l’échelle » de l’IA – la conviction que plus de données et de puissance de calcul produiront sans fin une plus grande intelligence. Cela pousse les concepteurs de centres de données à innover constamment, et la construction incessante ne montre aucun signe de ralentissement. Comme l’a conclu Mohamed Awad, qui dirige l’activité infrastructure chez le concepteur de puces Arm : « À un moment donné, cela va-t-il ralentir ? Il le faut. Mais nous ne le voyons pas arriver de sitôt. »