Brad Lightcap de OpenAI advierte sobre la crisis de memoria HBM en la industria de IA

El director de operaciones de OpenAI, Brad Lightcap, ha señalado que la industria de la inteligencia artificial se enfrenta a un desafío estructural que trasciende la simple disponibilidad de unidades de procesamiento gráfico (GPU).

Según Lightcap, la escasez de memoria de alto ancho de banda (HBM) se ha consolidado como el verdadero cuello de botella para el desarrollo de modelos de lenguaje de próxima generación.

Mientras que la capacidad de cómputo ha escalado de forma agresiva, la velocidad y el volumen de datos que la memoria puede entregar a los procesadores no han mantenido el mismo ritmo, lo que genera una infrautilización de los chips más avanzados de firmas como NVIDIA.

Esta limitación técnica impacta directamente en la eficiencia del entrenamiento y la inferencia de modelos masivos. La memoria HBM3e y las futuras iteraciones son componentes críticos que se apilan verticalmente para ofrecer una transferencia de datos ultrarrápida, pero su fabricación es compleja y depende de un número reducido de proveedores globales como SK hynix, Samsung y Micron Technology.

Lightcap enfatiza que, sin un aumento radical en la producción de estos componentes, los planes para alcanzar la Inteligencia Artificial General (AGI) podrían verse retrasados, ya que los modelos actuales “mueren de hambre” esperando que los datos fluyan desde la memoria hacia los núcleos de procesamiento.

Para OpenAI, esta situación subraya la urgencia de diversificar la cadena de suministro y fomentar inversiones masivas en infraestructura de semiconductores.

En este 2026, la advertencia de Lightcap resuena como un llamado a la acción para que los gobiernos y la iniciativa privada prioricen la fabricación de memorias avanzadas como el pilar fundamental de la economía digital.