Los chips consumen 160 kW y alcanzan el rendimiento de nubes hiperescalables

Qualcomm anunció el lanzamiento de una nueva generación de aceleradores de inteligencia artificial, destinados a centros de datos corporativos. Se presentaron los módulos AI200 y AI250, así como racks completos basados en ellos. Estas soluciones están pensadas para los cálculos asociados a modelos generativos y combinan escalabilidad, eficiencia energética y alta capacidad de transmisión.
El nuevo equipo se basa en la arquitectura NPU (Neural Processing Unit) — unidades de procesamiento neuronal especializadas creadas por Qualcomm para acelerar la inferencia de modelos de IA. Los desarrolladores buscan mejorar la métrica "rendimiento por dólar por vatio", un criterio clave de eficiencia en la infraestructura moderna de aprendizaje automático.
El acelerador básico AI200 es un módulo en formato de rack, optimizado para el procesamiento de sistemas de lenguaje y multimodales. Cada tarjeta está equipada con 768 GB de memoria LPDDR, lo que proporciona alta densidad de cálculo y resiliencia al trabajar con grandes conjuntos de datos. Gracias a un perfil energético mejorado se reduce el coste total de propiedad, y el despliegue de sistemas generativos resulta más accesible para los operadores de centros de datos.
El modelo AI250 utiliza la arquitectura near-memory computing — cómputo en la proximidad inmediata de los módulos de memoria. Este enfoque permite aumentar el ancho de banda efectivo más de diez veces y, al mismo tiempo, reducir el consumo de energía. El diseño admite inferencia desagregada: los recursos se pueden asignar entre tareas sin perder rendimiento ni aumentar costes.
Ambas plataformas están diseñadas para su instalación en racks de servidor estándar y cuentan con refrigeración líquida para optimizar la gestión térmica. Para la escalabilidad dentro del nodo se emplea la interfaz PCI Express, y para la interconexión de varios racks se usa Ethernet. Con una potencia total de 160 kW, cada sistema ofrece un nivel de rendimiento comparable con la infraestructura de nubes de hiperescala, manteniendo al mismo tiempo el foco en el consumo energético sostenible.
Durga Malladi, a cargo de Edge Solutions & Data Center en Qualcomm, subrayó que la nueva generación de aceleradores redefine la propia idea de computación a nivel de rack. Según Malladi, las soluciones AI200 y AI250 permiten a las empresas desplegar inteligencia artificial generativa con costes mínimos, manteniendo la flexibilidad y la seguridad de los sistemas corporativos.
El ecosistema de software de Qualcomm abarca todos los niveles — desde bibliotecas de aplicación hasta componentes del sistema. La pila está optimizada para los frameworks populares de aprendizaje automático y motores de inferencia, ofreciendo soporte para modelos en plataformas de IA generativa. La integración con herramientas de código abierto permite desplegar redes neuronales listas para usar con apenas una acción.
Los desarrolladores podrán usar modelos de Hugging Face a través de la biblioteca Efficient Transformers y del paquete AI Inference Suite. Estas herramientas están pensadas para la incorporación de inteligencia artificial en soluciones aplicadas, incluyendo servicios, agentes de software y API. Este enfoque reduce el tiempo de implementación y simplifica la operación de modelos entrenados.
La producción en serie del AI200 está prevista para 2026, y la del AI250 para 2027. Qualcomm planea mantener un ciclo anual de actualizaciones, aumentando sucesivamente la potencia de cálculo, reduciendo el consumo energético y mejorando el soporte para aplicaciones generativas.