Boom de Centros de Datos por IA: Miles de Millones en Inversión
La búsqueda global de inteligencia artificial, particularmente la de superinteligencia, está impulsando un auge sin precedentes en la construcción de centros de datos. Estas vastas instalaciones, a menudo anodinas por fuera, se están convirtiendo en los nuevos símbolos de la frontera de la computación, albergando la infraestructura avanzada vital para entrenar modelos de lenguaje grandes desarrollados por líderes de la industria como OpenAI, Google y DeepSeek. Esta intensa demanda está impulsando un aumento del gasto por parte de las principales empresas tecnológicas e incluso de los estados-nación, invirtiendo miles de millones en clústeres de centros de datos cada vez más grandes.
En el corazón de estas instalaciones se encuentran bastidores de potentes procesadores conocidos como Unidades de Procesamiento Gráfico (GPU). A diferencia de las Unidades Centrales de Procesamiento (CPU) tradicionales que manejan tareas secuencialmente, las GPU sobresalen en el procesamiento paralelo, lo que las hace ideales para los cálculos masivos y concurrentes requeridos para entrenar modelos complejos de IA. Muchos centros de datos de IA albergan decenas de miles de estas GPU, y un solo bastidor de los últimos chips de IA demanda la misma energía que de 10 a 15 bastidores en un centro de datos convencional. Como dice Chase Lochmiller, CEO de Crusoe, una startup que construye un importante centro de datos para OpenAI: "El centro de datos es la computadora".
A pesar de un breve período de preocupación por parte de los inversores a principios de 2025 tras la aparición de un modelo de IA altamente eficiente de DeepSeek, el frenesí de construcción de infraestructura solo se ha intensificado. Microsoft, Alphabet, Amazon y Meta planean colectivamente aumentar sus gastos de capital a más de 300 mil millones de dólares en 2025. La consultora de TI Gartner proyecta que el gasto total en centros de datos alcanzará los 475 mil millones de dólares este año, un salto del 42 por ciento desde 2024. Algunas previsiones, como la de McKinsey, sugieren una necesidad aún mayor, prediciendo 5.2 billones de dólares en inversión en centros de datos para 2030 para satisfacer la demanda global de IA. El fundador de Meta, Mark Zuckerberg, anunció recientemente la inversión de su compañía de "cientos de miles de millones de dólares en computación para construir superinteligencia", incluyendo planes para clústeres de centros de datos lo suficientemente grandes como para cubrir la mayor parte de Manhattan. Jensen Huang, CEO de Nvidia, enfatizó la naturaleza esencial de esta infraestructura, afirmando: "No conozco ninguna empresa, industria [o] país que piense que la inteligencia es opcional".
Sin embargo, construir estas instalaciones de IA de próxima generación es mucho más complejo, costoso y energéticamente intensivo que los sistemas computacionales anteriores. Andy Lawrence, director ejecutivo de investigación en Uptime Institute, señala el significativo riesgo involucrado: "Comenzar de repente a construir centros de datos que son mucho más densos en términos de uso de energía, para los cuales los chips cuestan 10 veces más, para los cuales hay una demanda no probada y que consumen toda la energía de la red disponible y el espacio inmobiliario adecuado, todo eso es un desafío extraordinario y una apuesta".
El drástico aumento en la demanda de energía de los nuevos chips de IA ha revolucionado el diseño de los centros de datos. Los últimos procesadores de Nvidia generan tanto calor que el aire acondicionado tradicional es insuficiente. Steven Carlini, vicepresidente de Innovación y Centros de Datos en Schneider Electric, explica que "Todo ha cambiado por completo", con el equipo de refrigeración y energía ocupando ahora el 70 por ciento de la superficie de la instalación, en comparación con los servidores. Mientras que un centro de datos "grande" hace 20 años podría haber requerido 20 megavatios de electricidad, las instalaciones de IA de hoy están diseñadas para un gigavatio o más. Esta rápida evolución es tan profunda que Meta, según se informa, demolió un centro de datos en desarrollo en Texas en 2023 para rediseñarlo para chips de mayor potencia antes de reiniciar la construcción.
La implacable demanda de poder computacional también está impulsando un auge inmobiliario a medida que los hiperescaladores –grandes proveedores de la nube como Amazon, Microsoft y Google– desarrollan vastos clústeres de centros de datos. Estas "fábricas de IA" a menudo se construyen para una sola empresa o incluso un estado-nación, lo que se aparta del modelo tradicional de servidores compartidos. Los factores clave para la selección de la ubicación incluyen terrenos baratos, incentivos fiscales, acceso a cables submarinos y, críticamente, energía abundante y asequible. Áreas como el norte de Virginia, Atlanta, Columbus, Dallas y Phoenix se han convertido en centros importantes debido a estas ventajas. Por ejemplo, Crusoe está construyendo ocho edificios de centros de datos que totalizan 1.2 gigavatios en Abilene, Texas, para OpenAI, como parte de su ambicioso proyecto Stargate de 100 mil millones de dólares, que incluirá aproximadamente 400,000 GPU Nvidia proporcionadas por Oracle. Meta está construyendo una instalación de 2 GW en Richland, Luisiana, mientras que xAI de Elon Musk apunta a 1.2 GW en múltiples sitios en Memphis, Tennessee. Amazon está desarrollando un sitio de 2.2 GW para Anthropic en New Carlisle, Indiana.
La carrera global por la capacidad de IA se extiende más allá de EE. UU. Un estudio de la Universidad de Oxford encontró que casi el 95 por ciento de la potencia informática de IA disponible comercialmente es operada por grupos tecnológicos estadounidenses y chinos. El impulso de China ha llevado a la construcción de centros de datos en regiones remotas como Xinjiang y Mongolia Interior. Tras una distensión, Nvidia reanudará algunos envíos de chips de IA a China, aunque los controles de exportación de EE. UU. sobre los semiconductores más potentes persisten. Johor Bahru, en Malasia, está emergiendo como un centro de IA para desarrolladores chinos. Los estados del Golfo también están invirtiendo fuertemente, y los EAU anunciaron un enorme clúster de centros de datos para OpenAI y otras empresas estadounidenses como parte del proyecto Stargate, con el objetivo de hasta 5 GW de potencia. La nueva compañía estatal de IA de Arabia Saudita, Humain, planea construir "fábricas de IA" con cientos de miles de chips Nvidia. Mientras tanto, la UE tiene la intención de movilizar 200 mil millones de euros para convertirse en un "continente de IA", planificando cinco "gigafábricas de IA".
El creciente consumo de energía de estas instalaciones es una preocupación importante. La Agencia Internacional de Energía pronostica que el uso de energía de los centros de datos aumentará de 415 teravatios-hora en 2024 a más de 945 TWh para 2030, lo que equivale aproximadamente al consumo actual de electricidad de Japón. Este aumento está impulsando a los operadores a utilizar cualquier fuente de energía disponible; xAI, por ejemplo, utilizó turbinas de gas en Memphis mientras esperaba la conexión a la red. Los cuatro principales hiperescaladores han asegurado recientemente acuerdos para energía nuclear. El consumo de energía inmenso y constante, junto con los picos de demanda durante el entrenamiento de modelos de IA, plantea desafíos significativos para los proveedores de servicios públicos, arriesgando la inestabilidad de la red y los apagones.
El consumo de agua es otro problema crítico. Los sitios de hiperescala y coubicación en EE. UU. consumieron directamente 55 mil millones de litros de agua en 2023, con un consumo indirecto (ligado al uso de energía) estimado en 800 mil millones de litros anuales, comparable al uso anual de agua de casi 2 millones de hogares estadounidenses. Los gigantes tecnológicos lo reconocen: Microsoft informó que el 42 por ciento de su agua provino de áreas con "estrés hídrico" en 2023, y Google casi el 30 por ciento de cuencas con riesgo de agotamiento. Los centros de datos en estados propensos a la sequía como Arizona y Texas, y los desarrollos en Georgia, han generado preocupaciones locales sobre la escasez de agua y el aumento de los costos del agua municipal.
Para combatir el calor extremo generado por los chips de IA, son esenciales métodos de refrigeración avanzados. Alrededor de dos quintas partes de la energía de un centro de datos de IA se destinan a la refrigeración. Mientras que los primeros centros de datos dependían del aire acondicionado industrial, el aumento de la densidad de chips ahora requiere soluciones más sofisticadas. Los operadores están instalando tuberías con agua fría para transferir el calor, a menudo utilizando grandes torres de enfriamiento que consumen vastas cantidades de agua por evaporación (aproximadamente 19,000 litros por minuto por torre). También se están adoptando sistemas de enfriamiento de circuito cerrado más eficientes. La última innovación es la refrigeración "directa al chip", donde el refrigerante fluye directamente sobre los componentes que generan calor. Start Campus de Portugal, por ejemplo, planea usar agua de mar como disipador de calor para su próximo centro de datos de IA de 1.2 GW, haciendo circular más de 1.4 millones de metros cúbicos diarios a través de intercambiadores de calor antes de devolverla al océano.
A pesar de los cientos de miles de millones de dólares ya invertidos, los líderes de Silicon Valley no muestran signos de desaceleración. Nvidia proyecta que sus sistemas de próxima generación "Rubin Ultra", que se lanzarán en dos años, agruparán más de 500 GPU en un solo rack consumiendo 600 kilovatios, presentando nuevos desafíos de energía y refrigeración. Sam Altman de OpenAI vislumbra instalaciones "mucho más allá" de los 10 GW, que requerirán "nuevas tecnologías y nuevas construcciones". Esta ambición se sustenta en la "ley de escalado" de la IA, la creencia de que más datos y poder computacional producirán sin fin una mayor inteligencia. Esto impulsa a los diseñadores de centros de datos a innovar constantemente, y la construcción implacable no muestra signos de disminuir. Como concluyó Mohamed Awad, quien dirige el negocio de infraestructura en el diseñador de chips Arm: "¿En algún momento se ralentizará? Tiene que hacerlo. Pero no lo vemos suceder pronto."