Mientras OpenAI construye Stargate, Musk planea una superestructura 25 veces más potente.
Elon Musk ha anunciado un proyecto para ampliar masivamente la capacidad computacional destinada a la inteligencia artificial: durante los próximos cinco años, se prevé desplegar el equivalente a 50 millones de aceleradores gráficos NVIDIA H100. Esta cifra supera en más de 20 veces el reciente anuncio de OpenAI y Oracle sobre la construcción del centro de datos Stargate, diseñado para operar con dos millones de chips de IA. Sin embargo, en el caso de la iniciativa de Musk, no se habla tanto del número físico de dispositivos como de su equivalente en capacidad de cálculo.
Lo que se esconde tras el término "equivalente" aún no se ha aclarado. Podría implicar el uso de soluciones más eficientes energéticamente o sistemas personalizados comparables en rendimiento a los H100. No obstante, la magnitud del proyecto promete una carga sin precedentes para la infraestructura. Incluso si se trata de un número menor de GPU reales, el consumo energético se calcula como colosal.
Este contexto pone de manifiesto una nueva carrera armamentista en el ámbito de la IA. Las compañías ya no compiten por la precisión de sus modelos, sino que miden sus ambiciones en millones de aceleradores. Según Tom’s Hardware, los grandes actores del sector presumen abiertamente del volumen de GPU adquiridas, considerándolas un recurso estratégico.
A modo de comparación, el centro de datos Stargate —desarrollado por OpenAI y Oracle con la participación de CoreWeave— alimentará dos millones de chips de IA. SoftBank, socio previo del proyecto, no participa en esta nueva fase.
Musk, fundador de xAI y figura clave en el desarrollo de su infraestructura, no ha especificado qué compañías o centros de datos albergarán los GPU previstos. Sin embargo, todo apunta a una infraestructura a escala masiva, donde los costos de energía y refrigeración serán retos fundamentales.
A la luz de las tendencias actuales, este tipo de proyectos plantean cuestiones sobre la eficiencia energética global y la sostenibilidad. La rápida expansión de los recursos para IA exige no solo chips de silicio, sino también redes eléctricas adecuadas, logística compleja y nuevas arquitecturas de centros de datos.
Aunque el anuncio de Musk aún no incluye una hoja de ruta detallada, la escala del plan promete reconfigurar por completo el equilibrio mundial del poder computacional.