NVIDIA GTC 2025: La investigación de la empresa analista IDC examina cómo la IA está impulsando una revisión dramática del diseño y la capacidad de los centros de datos.
La adopción de la IA y la computación acelerada está dando forma al futuro del desarrollo de tecnología de centros de datos, incluida la potencia, el enfriamiento y los servicios clave para respaldar las cargas de trabajo y la infraestructura de IA.
Este cambio se explora en un informe de investigación de Infobrief de la empresa analista IDC, titulado “Data Center Vision 2030: Cómo evolucionará la infraestructura del centro de datos para respaldar la IA y la computación acelerada”. La investigación se analizó a mayor profundidad durante una sesión exclusiva en la conferencia de NVIDIA GTC 2025, en San José, California, entre Sean Graham, director de investigación de Cloud to Edge Datacenter Trends, quien es autor de la investigación, y Martin Olsen, vicepresidente sénior de productos y soluciones de Vertiv.
Punto de inflexión para la estrategia de IA
Graham de IDC abrió la sesión con una afirmación clara. “Nos encontramos en un punto de inflexión”, afirmó, y señaló que después de dos años de experimentación en IA en 2023 y 2024, impulsados por ChatGPT y mandatos corporativos, las empresas han comenzado a cambiar de rumbo. “¿Qué representa esto para nuestro negocio en el futuro? ¿Cuál es nuestra estrategia de IA?” preguntó, y enmarcó la pregunta que ahora domina las salas de juntas. La investigación de IDC apoya este cambio: el 84 % de los líderes tecnológicos sénior ven a la IA como una “nueva carga de trabajo corporativa”, similar al correo electrónico o la sap, con presupuestos y procesos exclusivos.
Según IDC, el gasto se está incrementando en consecuencia. “Los aumentos de presupuesto de los CIO [muestran] dos de las cuatro cosas principales que tendrán el mayor gasto en 2025 [giran] en torno a la infraestructura de TI para respaldar todos estos casos de uso de IA”, dijo Graham. IDC prevé que la inversión en infraestructura de IA crecerá un 28,1 % anual, pero hay un problema evidente: “Las instalaciones del centro de datos que tenemos hoy no son adecuadas para soportarlas”, advirtió, y citó una encuesta en la que el 80 % de los líderes marcaron la energía y el enfriamiento como críticos o importantes para sus planes de IA.
“La energía de los centros de datos crecerá un 23,5 % cada año, de 397 teravatios hora (TWh) en 2024 a 108 gigavatios para 2028”.
-Sean Graham
Director de investigación, Centro de datos de nube a borde, IDC
El poder ha surgido como el cuello de botella central. “La energía de los centros de datos crecerá un 23,5 % al año entre 2024 y 2028”, afirmó Graham, con un consumo que se duplicará al final de la década y 108 gigavatios de nueva capacidad de energía necesaria a nivel mundial. Este aumento tiene un costo. “Eso hará que sean mucho más costosos de construir y operar a medida que competimos por la energía y la infraestructura crítica”, explicó, y señaló el creciente retroceso de la comunidad —“no en mi patio trasero”— y la competencia con sectores como los vehículos eléctricos para los recursos de la red.
La computación acelerada redefine el diseño
Martin Olsen de Vertiv profundizó en las implicaciones técnicas y enfatizó el papel de la IA en la rotura de moldes actuales. “La IA está llevando [los centros de datos] a donde la energía, el enfriamiento y la computación operan como una unidad integral”, afirmó, y describió esto como un “cambio de paradigma” para una industria que alguna vez estuvo aislada por especialidad. La asociación de cinco años de Vertiv con NVIDIA ha seguido esta evolución, particularmente con plataformas como Blackwell, la cual cuenta con 35 veces el poder de su predecesora. “No hace mucho tiempo hablábamos de 25, 40 y 80 kilovatios. Ahora son 130 kilovatios en un rack”, señaló Olsen, y destacó el rápido aumento de densidad.
Este cambio exige nuevos enfoques. “Hemos introducido el enfriamiento líquido como parte de esto”, mencionó Olsen, e insinuó un futuro en el que los racks podrían alcanzar “cientos de kilovatios” o incluso un megavatio si no se controlan. ¿La visión? Una “unidad de computación” de conexión inmediata “Ayer me reuní con un proveedor de IA bastante grande. Para ellos, se trata de un trozo de computación que va a estar en línea”, compartió Olsen, lo cual ilustra la mentalidad de los nuevos participantes como los proveedores de IA soberana.
“La IA está llevando los centros de datos a donde la energía, el enfriamiento y la computación operan como una unidad integral”.
-Martin Olsen
Vicepresidente, estrategia global de productos, Vertiv
Soluciones en el horizonte
Los obstáculos son enormes. “Los permisos de la energía y la disponibilidad [son] un problema realmente significativo”, recalcó Olsen, y citó una necesidad de 3,5 gigavatios en Silicon Valley para 2028 y un proyecto de 800 megavatios en Hayward, suficiente para alimentar una ciudad del tamaño de Miami. Las cargas de trabajo dinámicas de IA agregan complejidad. “Se vuelve muy importante que la potencia y el enfriamiento estén estrechamente integrados con la computación”, explicó, y abogó por sistemas predictivos para gestionar picos impulsados por GPU.
A pesar de los desafíos, las soluciones están tomando forma. La arquitectura de referencia de siete megavatios de Vertiv para la GB200 NVL72 de NVIDIA promete diseños “20 % más eficientes desde el punto de vista energético, 30 % más eficientes desde el punto de vista del espacio”, lo que reduce los tiempos de implementación a la mitad y el costo total de propiedad en un 25 %. “Seguimos haciendo que esto evolucione”, aseguró Olsen, y la vinculó a una infraestructura predictiva que da seguimiento a las cargas de trabajo dinámicas.
Mire la presentación completa de Martin Olsen, donde detalla cómo el centro de datos ha evolucionado en una sola unidad de computación, al unificar la potencia y el enfriamiento con recursos de computación acelerados por GPU. Video de YouTube
Las apuestas del mercado se disparan
Las apuestas financieras son asombrosas y Olsen arroja luz sobre el frenesí de inversión de la industria. “$200.000 millones gastados en capacitación hasta ahora”, dijo, y agregó que los grandes inversionistas ya podrían acercar este monto a $300.000 millones. De cara al futuro, las proyecciones sugieren que otro billón de USD podría ingresar en la infraestructura de IA para 2030 a medida que la demanda se dispara. Sin embargo, el panorama de ingresos se retrasa. “El director ejecutivo de Cisco señaló que se obtendrían entre unos 5000 o 10.000 millones de dólares en ingresos”, señaló Olsen, y enmarcó la inferencia de ingresos como una mera fracción de su potencial. La brecha entre los desembolsos masivos y los retornos tempranos subraya el juego a largo plazo: la infraestructura actual es la base del valor del mañana.
La declaración de conclusión de Graham cristalizó las apuestas: “El centro de datos del futuro se verá fundamentalmente diferente de como luce hoy”. Olsen hizo eco de esta declaración y destacó la “inferencia” como el juego final: “Así es como extraeremos su valor”, mientras observamos que el 80 % de los datos empresariales permanecen en el sitio, lo que impulsa un “resurgimiento empresarial” en la infraestructura propia.
Profundice en la evolución del centro de datos
Para obtener una visión integral de las tendencias, los desafíos y las soluciones, descargue el InfoBrief de Vertiv e IDC: Cómo evolucionará la infraestructura del centro de datos para soportar la IA y la computación acelerada