La batalla tecnológica entre Nvidia y AMD ha encontrado un nuevo campo de enfrentamiento: la memoria de alto ancho de banda (HBM). Según un informe de TrendForce citado por Tom’s Hardware, Nvidia está presionando a sus proveedores para que las próximas memorias HBM4 alcancen los 10 Gbps por pin, muy por encima de los 8 Gbps fijados por el estándar oficial de JEDEC. El objetivo es reforzar su plataforma Vera Rubin, prevista para 2026, y frenar el avance de los aceleradores MI450 Helios de AMD.
El movimiento refleja hasta qué punto la memoria se ha convertido en un elemento tan crítico como las propias GPU en la era de la inteligencia artificial. Cada incremento en capacidad y ancho de banda no solo multiplica la velocidad de cálculo, sino que abre nuevas posibilidades para entrenar modelos de lenguaje masivos, ejecutar inferencia a gran escala o simular fenómenos científicos de enorme complejidad.
De HBM1 a HBM4: una evolución marcada por la IA y los superordenadores
La historia de HBM es relativamente reciente, pero en apenas una década ha transformado la industria de los semiconductores.
- HBM1 (2015): introducida por AMD con la GPU Fiji, ofrecía un ancho de banda de hasta 128 GB/s por pila. Fue la primera vez que la memoria se apiló verticalmente en 3D sobre un interposer de silicio, reduciendo la latencia y el consumo frente a GDDR5.
- HBM2 (2016-2017): utilizada en las GPU Nvidia Tesla P100 y en las Radeon Vega, duplicó la velocidad por pin y elevó la capacidad hasta 8 GB por pila. Se convirtió en un estándar para supercomputación y aceleración de IA.
- HBM2E (2019-2020): mejoró el rendimiento hasta 3,6 Gbps por pin y 460 GB/s por pila, consolidando su uso en datacenters y HPC.
- HBM3 (2022): introducida con los aceleradores de IA de Nvidia y AMD, alcanzó 819 GB/s por pila, con capacidades de 24 GB.
- HBM3E (2023-2024): la evolución más reciente antes de HBM4, llegó a los 1,2 TB/s por pila y hasta 36 GB por stack. Nvidia la incorporó en sus aceleradores H100 y B200, convirtiéndose en la columna vertebral de los clústeres de IA actuales.
La llegada de HBM4 marca un nuevo salto: interfaz de 2.048 bits, mayor densidad y velocidades iniciales de 8 Gbps por pin. Sin embargo, Nvidia no se conforma con el estándar, consciente de que AMD prepara su contraofensiva.
Rubin contra Helios: dos visiones de la próxima generación
La plataforma Vera Rubin de Nvidia —bautizada en honor a la astrónoma que confirmó la existencia de la materia oscura— está diseñada para el entrenamiento e inferencia de modelos de inteligencia artificial de próxima generación. En su versión Rubin CPX, se anuncia con un rendimiento de hasta 1,7 petabytes por segundo en un rack completo NVL144. Para lograrlo, cada GPU deberá superar los 15 TB/s de ancho de banda, un objetivo solo posible si la HBM4 alcanza los 10 Gbps por pin.
El problema es que llevar la velocidad hasta ese umbral no es trivial: supone mayores exigencias en consumo, sincronización y disipación térmica. TrendForce apunta a que Nvidia podría segmentar su catálogo: Rubin CPX con HBM4 a 10 Gbps y versiones estándar con las pilas de 8 Gbps.
En paralelo, AMD trabaja en MI450 Helios, basada en arquitectura CDNA 4. Sus especificaciones filtradas apuntan a hasta 432 GB de memoria HBM4 por GPU, un salto en capacidad que podría darle ventaja en cargas donde el volumen de datos es más importante que la velocidad por pin. Además, CDNA 4 promete optimizaciones arquitectónicas específicas para IA, reforzando la competencia en un terreno donde Nvidia lleva años dominando.
Proveedores en primera línea: Samsung, SK hynix y Micron
El pulso entre Nvidia y AMD no se entiende sin los tres grandes proveedores de memoria HBM:
- Samsung apuesta por un nodo de 4 nm FinFET para su chip base HBM4, lo que promete frecuencias más altas y menor consumo dinámico. Esta transición podría darle ventaja en el segmento premium.
- SK hynix sigue liderando en volumen, habiendo sido el principal proveedor de HBM3 y HBM3E para Nvidia y otros fabricantes.
- Micron ha confirmado que ya dispone de muestras de HBM4 con interfaz de 2.048 bits y ancho de banda superior a 2 TB/s, aunque no ha especificado si se unirá a la carrera de los 10 Gbps.
Nvidia, consciente de los riesgos de producción, planea procesos de validación más largos y calificaciones escalonadas para asegurar que las distintas variantes de HBM4 lleguen a tiempo a su ecosistema Rubin.
IA y geopolítica: una memoria en el centro del tablero global
La HBM ya no es un componente más: se ha convertido en una pieza estratégica. En la actualidad, las memorias de alto ancho de banda son indispensables para centros de datos de inteligencia artificial, superordenadores científicos y aplicaciones militares.
Estados Unidos, Corea del Sur y Taiwán concentran gran parte de la producción, lo que convierte a la cadena de suministro en un activo geopolítico crítico. Mientras tanto, China intenta reducir su dependencia tecnológica mediante programas de inversión masiva en semiconductores. En este contexto, cada avance —como pasar de 8 a 10 Gbps en HBM4— es también un movimiento en la partida de la soberanía tecnológica.
Un futuro marcado por el rendimiento extremo
El choque entre Rubin y Helios simboliza el pulso más relevante de la próxima década en hardware para IA. Nvidia confía en que la velocidad extrema de la HBM4 a 10 Gbps mantenga su dominio en cargas de inferencia y entrenamiento masivo. AMD, por su parte, busca atraer a clientes que necesitan más memoria y mayor eficiencia arquitectónica.
Ambas estrategias son complementarias, pero solo una marcará el rumbo de la industria. Lo que parece seguro es que, con la llegada de HBM4, los superordenadores actuales podrían quedar obsoletos en cuestión de pocos años, abriendo una nueva etapa de escalabilidad en inteligencia artificial.
Preguntas frecuentes
¿Qué diferencia hay entre HBM4 y generaciones anteriores como HBM3 o HBM3E?
HBM4 ofrece una interfaz de 2.048 bits y anchos de banda que superan los 2 TB/s por pila, frente a los 819 GB/s de HBM3 y 1,2 TB/s de HBM3E. También incrementa la densidad, permitiendo pilas más grandes y eficientes.
¿Por qué Nvidia exige memorias HBM4 de 10 Gbps cuando el estándar es de 8 Gbps?
Nvidia necesita alcanzar más de 15 TB/s por GPU para cumplir con los objetivos de su plataforma Rubin. Con 10 Gbps por pin, reduce la necesidad de comprometer otras partes de la arquitectura.
¿Qué ventajas ofrece AMD con la serie MI450 Helios?
Además de hasta 432 GB de HBM4 por GPU, AMD apuesta por la arquitectura CDNA 4, diseñada para mejorar la eficiencia y el rendimiento en cargas de IA de nueva generación.
¿Qué impacto tiene la producción de HBM4 en la geopolítica global?
La concentración de fabricantes en Corea del Sur, Taiwán y Estados Unidos convierte a la HBM4 en un recurso estratégico. Controlar su suministro significa tener una ventaja competitiva en inteligencia artificial, defensa y economía digital.