Liquid cooling en datacenters GPU: números reales de eficiencia
Publicamos nuestros datos de PUE y consumo energético tras 6 meses de operación con HGX B200 refrigerado por líquido.
Cada vendor de datacenter anuncia un PUE de 1.2. Si ese número fuera real, el sector ya habría resuelto su problema energético. No lo ha resuelto — el datacenter TIER III medio de la industria opera en torno a 1,45-1,55 según los informes anualizados del Uptime Institute (Global Data Center Survey), y eso sin contar el pico cuando entra en ola de calor. La brecha entre marketing y medición es el tema de este artículo.
Qué mide exactamente un PUE
PUE = energía total del DC / energía consumida por IT. Si tu PUE es 1.2, por cada vatio que usa la GPU, 0.2 W se gastan en refrigeración, UPS, iluminación y pérdidas. Un PUE de 1.5 triplica ese overhead.
El problema es que PUE se mide en condiciones distintas según quién lo reporte. Algunos lo dan ‘de diseño’ (teórico, con carga ideal), otros ‘anualizado’ (media real incluyendo verano e invierno), otros ‘best-case’ (mejor trimestre). Los únicos comparables son los anualizados con instrumentación física independiente.
Aire forzado vs direct liquid cooling
HGX B200 disipa 10.2 kW por nodo. Con 8 GPUs a 1 kW cada una más CPU, memoria y red, un rack de 4 nodos supera 45 kW de carga térmica. Aire forzado a esa densidad deja de funcionar: la temperatura de retorno sube por encima de los rangos ASHRAE A2/A3 recomendados, las GPUs entran en throttling, y el tiempo medio entre fallos desciende un orden de magnitud.
Direct liquid cooling (agua templada, 40-45°C de entrada) elimina el problema por física. El líquido tiene 3.400 veces más capacidad calorífica volumétrica que el aire; una manguera de agua hace el trabajo de cuarenta extractores. La GPU opera 8-12°C más fría a la misma carga, lo que reduce consumo por fuga a nivel de silicio y mejora MTBF.
Nuestros números, septiembre 2025 – marzo 2026
Seis meses de operación continua en Madrid con el clúster HGX B200 bajo direct-to-chip liquid cooling. Medición con contadores certificados clase 0.5s, lecturas horarias, publicación mensual.
PUE anualizado
1.18 (σ = 0.03)
PUE pico (agosto Madrid 41°C)
1.24
PUE mínimo (enero)
1.13
Consumo refrigeración / consumo IT
11.6%
Agua consumida por MWh IT
0.09 m³ (circuito cerrado)
GPU inlet temp media
36.2°C
GPU thermal throttling events
0
“La diferencia entre un PUE 1,5 y un PUE 1,2 a lo largo de la vida útil de un HGX B200 son 21 toneladas de CO₂ evitadas por nodo — equivalente al consumo eléctrico anual de unos 40 hogares españoles. Multiplica por racks. Luego multiplica por flota.”
Qué no te cuenta el marketing sostenible
- El agua del circuito cerrado no se evapora — se regenera. No compitas con la agricultura local.
- El calor residual es técnicamente reutilizable en calefacción urbana o agua caliente sanitaria industrial — una frontera abierta de eficiencia a medida que las redes de district heating europeas maduren.
- El datacenter está conectado a la red española; a su vez, España cerró 2024 con ~56% de generación renovable anualizada (REE, informe del sistema eléctrico 2024). La huella de carbono por MWh es aproximadamente la mitad de la media europea.
- La fabricación del hardware sigue siendo la parte más sucia del ciclo de vida — no hay greenwashing que lo arregle. La única respuesta es alargar vida útil y reducir consumo operativo.
Publicamos estos números porque si el sector no empieza a medir igual, la discusión de sostenibilidad en IA se queda en powerpoints. La cátedra con la Universidad de Granada está trabajando en un protocolo público de benchmarking energético reproducible. Cuando esté, también se publica.