Tecnología

Solidigm apunta a la limitación de memoria en IA con tecnología de almacenamient

Solidigm aborda directamente los cuellos de botella en la jerarquía de memoria para la computación de IA mediante tecnología QLC NAND de alta densidad y SSD de 122 TB, combinada con colaboraciones en

Solidigm apunta a la limitación de memoria en IA con tecnología de almacenamient

¿Por qué la memoria se ha convertido en el asesino silencioso bajo la fiebre de la IA?

La respuesta es directa: porque el poder de cómputo avanza demasiado rápido y la memoria no puede seguir el ritmo. Mientras la industria centra su atención en los FLOPS de las GPU, una limitación más fundamental está surgiendo: la velocidad de alimentación de datos. Los parámetros de los modelos de IA a menudo alcanzan cientos de miles de millones o billones, y las enormes cantidades de datos necesarias para el entrenamiento y la inferencia deben fluir eficientemente a través de la jerarquía de memoria. La arquitectura tradicional centrada en DRAM, complementada con discos duros lentos, se ha vuelto inadecuada frente a las cargas de trabajo de IA. Este no es un problema que se pueda resolver con la actualización de un solo componente, sino que requiere un rediseño de toda la “tubería de datos”, desde la caché del procesador hasta el almacenamiento de archivo. La estrategia de Solidigm apunta precisamente a este punto de dolor a nivel de sistema.

Estamos en el comienzo de un “superciclo de memoria”. Según estimaciones de la firma de investigación de mercado TrendForce, las ventas globales de servidores de IA superarán los 2 millones de unidades en 2026, y su demanda de memoria de alto ancho de banda y almacenamiento de alta capacidad impulsará una tasa de crecimiento anual compuesto de más del 25% en los mercados relacionados. Esto no es solo un crecimiento en volumen, sino una transformación cualitativa. La IA ya no solo “necesita más espacio de almacenamiento”, sino que requiere un ecosistema de memoria inteligente, en capas y estrechamente acoplado con la computación. Quien controle los nodos clave de este ecosistema tendrá la voz para definir las especificaciones en la próxima fase de la competencia en IA.

La carta tecnológica de Solidigm: innovación en el límite de las leyes físicas

La ventaja de Solidigm proviene de su acumulación a largo plazo en la capa física de NAND Flash. Su núcleo es la tecnología de “puerta flotante”. En comparación con la tecnología de memoria flash de captura de carga común en la industria, la puerta flotante almacena electrones en una capa conductora bien aislada. Esto trae dos beneficios clave: primero, permite un control más preciso de la carga, logrando así un almacenamiento de cuatro bits por celda más estable; segundo, reduce efectivamente la interferencia entre celdas de memoria adyacentes, lo cual es crucial al buscar una densidad de almacenamiento extrema.

El resultado concreto de esta tecnología es su solución de Quad-Level Cell de alta densidad y el sorprendente SSD de 122 TB. Esto no es solo un avance en capacidad, sino un cambio en el pensamiento de diseño del sistema. Colocar una capacidad tan enorme en un solo SSD significa que los centros de datos pueden implementar grupos de almacenamiento de “datos tibios” o “datos fríos” más cerca de las GPU, reduciendo significativamente la latencia y el consumo de energía en la transferencia de datos.

Para comprender más claramente la posición y los desafíos de Solidigm en la jerarquía de memoria, podemos ver a través del siguiente diagrama de flujo cómo fluyen los datos en una arquitectura de computación de IA ideal y en qué eslabones pueden ocurrir los cuellos de botella:

Del diagrama se puede ver que la tecnología de Solidigm se enfoca principalmente en el eslabón crítico de mejora desde el “almacenamiento en frío” hasta el “almacenamiento tibio/caché”, con el objetivo de comprimir el tiempo total que tardan los datos en fluir desde el medio de almacenamiento hasta las unidades de computación.

La siguiente tabla compara las ventajas y desventajas de las soluciones de almacenamiento principales actuales frente a las cargas de trabajo de IA:

Tipo de almacenamientoCapacidad típicaVentajaDesventaja (para IA)Rol en la tubería de IA
HBM / DRAMDecenas de GB a cientos de GBLatencia extremadamente baja, ancho de banda ultra altoCosto muy alto, capacidad limitada, alto consumo energéticoDatos calientes, parámetros del modelo para computación en tiempo real
NVMe SSD (TLC/QLC)Varios TB a decenas de TBBuen equilibrio entre velocidad, capacidad y costoDurabilidad de escritura, rendimiento de escritura sostenida puede ser limitadoCaché de datos tibios, registros de entrenamiento, puntos de control del modelo
QLC SSD (alta densidad, como Solidigm)Nivel de cientos de TBCapacidad extremadamente alta, mejor costo y eficiencia energética por GBVelocidad de escritura y latencia inferiores a TLCAlmacenamiento nearline, almacenamiento de grandes conjuntos de datos, archivado de modelos
HDD tradicionalDesde decenas de TBCosto por GB más bajoAlta latencia mecánica, rendimiento deficiente en lectura/escritura aleatoriaArchivado de datos fríos, respaldo

De la tabla se puede ver claramente que el valor de los SSD QLC de alta densidad radica en llenar la enorme brecha de “capacidad-costo-rendimiento” entre DRAM y HDD tradicionales, convirtiéndose en una capa clave que conecta en la tubería de datos de IA.

Colaboración del ecosistema: el camino necesario para romper los silos de almacenamiento

El hardware de almacenamiento más avanzado, si no se integra perfectamente con el ecosistema de computación, es solo una isla. Solidigm comprende esto profundamente. Su estrategia no es solo vender chips de almacenamiento o discos duros, sino impulsar un cambio completo de paradigma hacia una arquitectura “centrada en los datos”. Esto requiere una colaboración profunda con fabricantes de CPU, gigantes de GPU, proveedores de servicios en la nube e incluso comunidades de software de código abierto.

Por ejemplo, la colaboración con Intel en la próxima generación de plataformas podría involucrar una optimización profunda de tecnologías de interconexión como CXL, permitiendo que los SSD sean direccionados por el procesador de una manera más cercana a la memoria. La colaboración con NVIDIA podría centrarse en cómo, a través de tecnologías como GPUDirect Storage, lograr que las GPU accedan directamente a los datos en los SSD, evitando por completo la sobrecarga de copia a través de la CPU y la memoria del sistema. El objetivo de estas colaboraciones es acortar la ruta de los datos, haciendo que el almacenamiento sea más “inteligente” y “activo”.

El siguiente mapa mental describe la estrategia multidimensional del ecosistema que Solidigm está construyendo para superar el cuello de botella de memoria en IA:

Esta amplia vinculación del ecosistema significa que el éxito o fracaso de Solidigm estará profundamente ligado al desempeño en el mercado de sus socios. Este es un juego de alto riesgo y alta recompensa, pero también puede ser la única vía para romper el panorama actual de infraestructura de IA dominado por unos pocos gigantes.

Impacto en el mercado: ¿quién se beneficiará y quién enfrentará desafíos?

Esta transformación impulsada por el cuello de botella de memoria desencadenará reacciones en cadena en la cadena de suministro. En primer lugar, los beneficiarios directos serán empresas como Solidigm y su matriz SK Hynix, que tienen una acumulación única en tecnología NAND. La demanda de almacenamiento de alta densidad y durabilidad podría cambiar el enfoque competitivo en el mercado NAND, pasando de una simple guerra de precios a una competencia integral de tecnología y ecosistema.

En segundo lugar, los diseñadores de centros de datos y los proveedores de servicios en la nube obtendrán nuevas herramientas para optimizar el costo total de propiedad. A través del almacenamiento en capas inteligente, pueden gestionar de manera más fina el ciclo de vida de los datos, reservando los costosos recursos de HBM y DRAM para las cargas de trabajo que más necesitan procesamiento en tiempo real. Según un informe de Uptime Institute, alrededor del 40% de los costos energéticos de los centros de datos provienen de equipos de TI, y la mejora en la eficiencia energética de los sistemas de almacenamiento se traducirá directamente en ahorros significativos en gastos operativos.

Sin embargo, los desafíos también son evidentes. Los fabricantes tradicionales de matrices de almacenamiento centradas en discos duros enfrentarán una gran presión para acelerar la transición hacia arquitecturas totalmente flash e integrar software de capas de datos más inteligente. Los integradores de sistemas necesitarán aprender a diseñar y ajustar esta arquitectura híbrida de memoria/almacenamiento, lo que exige un mayor conocimiento especializado. Para los usuarios empresariales finales, aunque a largo plazo el rendimiento y el costo mejorarán, la migración de arquitectura y la curva de aprendizaje tecnológica a corto plazo siguen siendo barreras.

La siguiente tabla predice las estrategias y desafíos que diferentes tipos de empresas podrían enfrentar al abordar el cuello de botella de almacenamiento de IA en los próximos tres años:

Tipo de empresaPosible estrategiaDesafío claveEnfoque de inversión esperado
Proveedores de nube hiperescalaresDesarrollo propio de hardware de almacenamiento, colaboración profunda con fabricantes para personalización, impulso de nuevos estándares como CXLConfiabilidad en despliegues a escala, compatibilidad con infraestructura existente, gestión del consumo energéticoSSD de alta capacidad a nivel de servidor, tecnologías de expansión de memoria, compresión/deduplicación para almacenamiento en frío
Grandes empresasAdquisición de sistemas integrados de IA listos para usar, adopción de estrategias de nube híbrida para distribuir la cargaComplejidad en la selección tecnológica, brecha de habilidades internas de TI, estimación del costo total de propiedadSoluciones de almacenamiento listas para IA validadas, servicios gestionados, herramientas de monitoreo de rendimiento
Nuevas empresas de IAAdopción total de la nube pública, uso de servicios de almacenamiento de alto rendimiento nativos de la nubeControl de costos de almacenamiento en la nube, eficiencia en la transferencia de datos, riesgo de dependencia del proveedorOptimización de almacenamiento de objetos, arquitectura eficiente de tuberías de datos, estrategias de caché
Proveedores de servicios de edge computingDespliegue de SSD de alta durabilidad y amplio rango de temperatura, adopción de gestión de datos ligeraConfiabilidad en entornos adversos, ventanas de mantenimiento limitadas, necesidad de sincronización de datosSSD de grado industrial, pasarelas de almacenamiento en el edge, tecnología de reanudación tras desconexión

Perspectiva futura: ¿la batalla final en la jerarquía de memoria?

Estamos presenciando el desdibujamiento total de los límites entre memoria y almacenamiento. En la futura infraestructura de IA, el “almacenamiento” ya no será un subsistema independiente y pasivo, sino que se convertirá en parte de la “memoria en capas”. La maduración de tecnologías de interconexión como CXL permitirá que CPU, GPU y dispositivos de almacenamiento compartan un espacio de direcciones de memoria enorme y virtualizado de manera más eficiente.

Esto significa que empresas como Solidigm no solo competirán con fabricantes de almacenamiento tradicionales, sino también con gigantes de la memoria y empresas de plataformas de computación que se están integrando verticalmente. La competencia futura será una competencia de ecosistema contra ecosistema. Quien pueda ofrecer la experiencia de flujo de datos más fluida y eficiente desde el caché hasta el archivado ganará los pedidos de diseño para la próxima generación de centros de datos.

A más largo plazo, esta tendencia acelerará la democratización de la IA. Cuando se alivie el cuello de botella del almacenamiento, el costo y la complejidad de entrenar y desplegar modelos grandes disminuirán. Más empresas e instituciones de investigación tendrán la capacidad de explorar la IA de vanguardia, lo que podría generar aplicaciones de IA más diversas y cercanas a las necesidades de sectores verticales específicos. Al mismo tiempo, la IA en el edge despegará realmente gracias a la mejora en el rendimiento del almacenamiento local, permitiendo aplicaciones inteligentes con menor latencia y mayor seguridad y privacidad.

Lecturas adicionales

  1. Documento técnico oficial de SK hynix: Explicación detallada de los principios y ventajas de la tecnología NAND de puerta flotante. SK hynix Technology
  2. Documentación oficial de NVIDIA GPUDirect Storage: Comprende cómo las GPU pueden acceder directamente a dispositivos de almacenamiento, evitando la CPU, para acelerar cargas de trabajo de IA y HPC. NVIDIA Developer
  3. Consorcio Compute Express Link™ (CXL): Obtén las últimas especificaciones y casos de uso de la tecnología de interconexión CXL, uno de los protocolos clave para romper la barrera memoria/almacenamiento en el futuro. Compute Express Link
TAG
CATEGORIES