Cada película en streaming, cada foto en la nube y cada consulta a una red neuronal pasa por cientos de miles de procesadores escondidos en hangares sobrios de hormigón y acero. Esos hangares se llaman centros de datos — suele usarse la forma corta «centro de datos» o la abreviatura CPD. Vamos a ver de qué están hechos, dónde están las mayores instalaciones del planeta, por qué una ciudad necesita su propio centro de datos y cuánto tiempo viven.
Qué es un centro de datos moderno
Un centro de datos no es solo una sala con ordenadores, es todo un organismo. Se parece a un submarino: todo está duplicado, cada sistema vigila al vecino, y el calor residual se aprovecha como si fuera el escape de un taller. En un proyecto clásico de 10 000 m² de superficie útil, los sistemas de ingeniería ocupan casi tanto espacio como las propias estanterías de servidores.
Bloques principales del centro de datos
1. Sala de racks
Un rack de servidor es un armario metálico de 42–52 U. Esos armarios se colocan en largas hileras paralelas, formando pasillos fríos y calientes:
- Pasillo frío — el frente de los racks; desde un suelo falso se suministra aire frío entre 18–22 °C a través de perforaciones.
- Pasillo caliente — la parte trasera; los ventiladores de los servidores expulsan allí un flujo caliente de 35–45 °C que por conductos va hacia los acondicionadores.
- La distancia entre filas se calcula para que los flujos no se mezclen en remolinos: de lo contrario la eficiencia del enfriamiento cae drásticamente.
2. Alimentación eléctrica
- En la entrada — un cable de 6–10 kV desde la subestación municipal o un transformador propio del nodo de comunicaciones.
- Los transformadores reductores proporcionan el estándar 400/230 V de corriente trifásica, que se distribuye por paneles de distribución (PDU).
- UPS (sistemas de alimentación ininterrumpida) con baterías de iones de litio o supercondensadores mantienen la carga 3–7 minutos; eso es suficiente para que los generadores diésel alcancen la potencia nominal.
- En instalaciones clase Tier IV los diésel están en cápsulas contenedoras; el suministro de combustible cubre como mínimo 48 h de funcionamiento continuo.
3. Refrigeración
- Chillers con compresor y free cooling: cuando el aire exterior está más frío que el agua del circuito, el compresor se apaga — ahorro de energía.
- Refrigeración por inmersión: las placas de los servidores se sumergen totalmente en un líquido dieléctrico; el calor se transfiere directamente al circuito del intercambiador de calor.
- Directo al chip: un microradiador se presiona contra el procesador, por el que circula agua destilada o un dieléctrico; los ventiladores dentro del servidor dejan de ser necesarios.
- Esas soluciones «líquidas» reducen el consumo de ventilación en ~20 % y disminuyen el PUE global.
4. Conectividad
- Entre los racks hay tendidos patch cords ópticos de 100–400 Gb/s; en plataformas de prueba llegan a 800 Gb/s.
- La topología interna se construye según un esquema tipo Fat Tree — «árbol engrosado»: cada conmutador de borde está conectado al menos a dos nodos troncales, de modo que la caída de un enlace no interrumpe las redes virtuales.
- Para el acceso al exterior hay varios fibra óptica independientes hacia distintos operadores, de forma que la pérdida de una ruta troncal no aísle el centro de datos.
5. Seguridad
- En la entrada hay torniquetes biométricos; puerta de esclusa: primero se cierra la compuerta exterior, se verifica la tarjeta y la huella, y solo entonces se abre la segunda.
- La videovigilancia se analiza con un módulo de IA: reconoce rostros, movimientos y objetos abandonados.
- El sistema de extinción emplea gas inerte (nitrógeno o argón): desplaza rápidamente el oxígeno hasta el 15 %, apaga el foco sin inundar los servidores con agua.
Cómo se clasifica la fiabilidad
Uptime Institute (instituto certificador) divide los centros de datos en cuatro niveles:
- Tier I — una entrada de alimentación, un circuito de refrigeración, tiempos de inactividad planificados de hasta 28 horas al año.
- Tier II — fuentes UPS redundantes, pero una sola vía troncal. Tiempo de inactividad tolerable — 22 h.
- Tier III — dos líneas independientes de alimentación y refrigeración; cualquier módulo puede mantenerse sin detener los racks. Tiempo de inactividad — 1,6 h al año.
- Tier IV — redundancia doble de todo, incluidas las vías troncales. Indicador de disponibilidad — «cinco nueves» (99,995 %), tiempo de inactividad planificado — 26 minutos.
Dónde están los mayores centros de datos del planeta
- Inner Mongolia Information Park Chifeng, China. La superficie de servidores supera el millón de metros cuadrados, la potencia total es de más de un gigavatio. En la cubierta hay campos solares de 150 MW, y junto a la instalación hay cogeneración a gas que aporta otros 300 MW y calor para la calefacción invernal de la ciudad.
- Switch Citadel Campus Reno, Nevada. Instalado en una zona de calor continental: 650 MW de carga IT se refrigeran con chillers con absorción por adsorción, y la alimentación procede de un clúster solar en el desierto y baterías de litio-hierro-fosfato con una capacidad de 1,2 GWh.
- Keihanna Data Center Kioto, Japón. Turbocompresores en esquemas directo al chip impulsan agua refrigerada directamente a la tapa del procesador. El calor residual se usa para calentar agua potable de un parque tecnológico vecino y para sistemas de deshielo de nieve en aceras.
- Boden Type DC One Luleå, Suecia. Experimento de la UE por la ultraeficiencia: gracias al aire ártico el PUE es 1,06. En invierno el calor de la instalación calienta a la mitad de la ciudad; en verano el excedente se cede a un complejo de acuicultura.
Para qué sirven los centros de datos
Un centro de datos es la «fábrica» industrial de los datos: allí se almacenan, procesan y distribuyen por la red más rápido de lo que una persona puede pestañear. Sin esa fábrica, los servicios digitales se ralentizarían hasta moverse a paso de tortuga o dejarían de estar disponibles ante la primera avería. Estas son las áreas que más dependen de los centros de datos:
- Servicios de internet para consumidores
La foto que acabas de subir a una red social se copia de inmediato al menos en tres instalaciones independientes. Si un nodo falla, los demás aportan la copia al instante: no se pierde ningún byte y el usuario ni nota la caída. - Plataformas en la nube para empresas
Una startup ya no tiene que comprar un rack de servidores por cientos de miles de dólares. En un minuto «alquila» una máquina virtual y paga solo por las horas usadas. Cuando aumenta la demanda, la empresa añade con un clic núcleos de cálculo y memoria: la escala ocurre de forma automática dentro del centro de datos. - Ciencia e inteligencia artificial
Pronósticos climáticos, búsqueda de fármacos, entrenamiento de modelos de lenguaje: todo ello requiere decenas de miles de GPU trabajando en paralelo. Montar esa granja por cuenta propia está fuera del alcance de muchas universidades, pero alquilar un clúster de GPU en un CPD es factible. - Finanzas y operaciones bursátiles
En bolsa la cuenta va por milisegundos: cuanto más cerca esté el servidor del bróker del motor de emparejamiento de la bolsa, más opciones hay de ejecutar una operación al mejor precio. Por eso en los centros de datos de las bolsas se reservan salas de colocación de latencia ultra baja: los racks están literalmente a cinco metros de las máquinas de negociación y la señal llega antes de que uno pestañee. - Infraestructura de ciudad inteligente
Las cámaras leen matrículas, los sensores de calor detectan fugas, el contador de agua envía lecturas: todos esos flujos confluyen en el centro de datos municipal. Allí los algoritmos reconocen rostros de infractores, equilibran redes térmicas y generan las facturas de servicios, y el ciudadano ve todo integrado en una aplicación.
La regla general es sencilla: cuanto más rápido tiene que reaccionar un servicio y cuantos más datos maneja, más importante resulta un centro de datos fiable — con alimentación redundante, pasillos fríos y un equipo de ingenieros disponible las 24 horas.
Energía y ecología
La industria mundial de centros de datos ya consume ≈ 3 % de toda la electricidad generada. Para no agravar la ya delicada situación medioambiental, los operadores apuestan por generación verde y por el aprovechamiento del calor.
- Contratos PPA con renovables. Amazon, Google, Yandex cierran contratos a 15 años con parques eólicos: los promotores obtienen demanda garantizada y el operador consigue certificados verdes.
- Redes de calor. En Helsinki un centro de datos vierte calor a la red urbana de calefacción, cubriendo hasta el 10 % de la demanda invernal.
- Ubicación en el Norte. Facebook eligió Luleå, Microsoft seleccionó Stavanger en Noruega: durante gran parte del año el aire exterior es un agente refrigerante natural.
- Refrigeración por inmersión. Se sumergen servidores en aceite dieléctrico: los ventiladores dejan de ser necesarios, la transferencia de calor es hasta 50 veces mayor y el PUE baja hasta 1,07.
Cuánto vive un centro de datos
El edificio de ingeniería se proyecta para 25–30 años. Sin embargo, los servidores interiores se renuevan cada tres-cinco años: los nuevos chips ofrecen alrededor de 30 % más de rendimiento por la misma potencia. La infraestructura de red se actualiza por oleadas: ahora hay una migración de 10/25 Gb/s a 100/400 Gb/s. Las estanterías de almacenamiento pasan de HDD -> SSD, y el archivo «frío» se externaliza a robots de cintas o a cápsulas experimentales con codificación en ADN.
Por qué le conviene a una ciudad tener su propio centro de datos
- Docenas de empleos bien remunerados para ingenieros, operadores y personal de seguridad.
- Base tributaria: una gran instalación aporta millones de rublos al presupuesto local cada año.
- Baja latencia para servicios: la cita médica en línea o la plataforma escolar funcionan más rápido si el servidor está a un par de calles.
- Efecto de clúster: alrededor del CPD surgen estudios de desarrollo, startups de IoT e integradores de realidad virtual.
Conclusión
Un centro de datos es una central eléctrica de datos. Allí megavatios de electricidad se convierten en un flujo de bits, y los bits sobrantes en calor se reconvierten en megavatios que calefaccionan la ciudad. En la entrada hay kilovatios de servidores; en la salida, acceso instantáneo al correo, al vídeo y a modelos de redes neuronales. Cuanto más profunda es la digitalización, más importantes son esas «cajas grises» con ventiladores rugientes que hacen invisible la «nube» y convierten internet en algo relámpago.