Micron lanza DDR5 RDIMM de 256 GB a 9200 MT/s para IA
Micron acaba de mover ficha en el mercado de memoria para servidores y lo ha hecho a lo grande. La compañía ya está enviando muestras de módulos DDR5 RDIMM de 256 GB capaces de funcionar a 9200 MT/s, una cifra que deja en evidencia al hardware más potente del sector.
Hablamos de un solo módulo con un cuarto de terabyte de RAM operando a velocidades que, hasta hace poco, parecían reservadas para hojas de ruta a varios años vista. Si te asombró ver portátiles con 192 GB de memoria, esta noticia te va a interesar porque los módulos DDR5 RDIMM marcan el siguiente salto real en infraestructura para inteligencia artificial.


Contenido
Por qué Micron impulsa estos módulos DDR5 RDIMM de alta densidad
El motivo es bastante obvio si miras lo que está pasando en los centros de datos. Los grandes modelos de lenguaje, los sistemas con agentes y las cargas de inferencia en tiempo real piden más memoria por socket y un ancho de banda que no se quede corto a la primera de cambio.
Los proveedores hiperescalares llevan meses pidiendo soluciones que aguanten ese ritmo sin disparar el coste energético. Y aquí es donde Micron presume de número: un 40 % más de rendimiento frente a los módulos de 6400 MT/s que copan hoy la producción en volumen.
Estos módulos redefinen el rendimiento de la memoria para cargas de trabajo de IA en servidores de próxima generación.
Es un dato considerable porque la mayoría del parque instalado todavía está lejos de esa cifra. Hablamos de un salto generacional auténtico, no de una mejora cosmética para vender una nueva referencia.
Apilamiento 3D y tecnología 1 gamma: el truco está en el empaquetado
Meter 256 GB en un formato estándar de servidor no es tarea sencilla. Micron lo consigue combinando su DRAM de 1 gamma con técnicas de empaquetado avanzado que ya hemos visto triunfar en otros productos.
La clave está en el apilamiento 3D mediante vías pasantes de silicio, una técnica que también utilizan la memoria HBM y la V-Cache de AMD. Es como construir pequeños rascacielos de memoria sobre una misma base, ganando densidad sin salirse de las dimensiones físicas del estándar RDIMM.
Lo curioso del asunto es que estos módulos no recurren a formatos exóticos tipo CUDIMM, MRDIMM ni a alternativas más experimentales como LPCAMM o SOCAMM. Son RDIMM convencionales, compatibles con la arquitectura que ya está desplegada en miles de salas de servidores.
El verdadero argumento: eficiencia energética por bit
Aquí viene lo interesante para cualquiera que gestione infraestructura a gran escala. Es cierto que un módulo de 256 GB consume más que uno de 128 GB, pero la comparación correcta no es esa.
Sustituir dos módulos de 128 GB, que juntos suman 19,4 W según los datos del fabricante, por un único módulo de 256 GB funcionando a 11,1 W supone recortar el consumo en más de un 40 % para la misma capacidad. Cuando hablas de operadores que despliegan decenas de miles de módulos, el ahorro se traduce en millones al año y en una gestión térmica mucho más manejable.
Disponibilidad y próximos pasos
Micron ya está distribuyendo muestras a socios estratégicos del ecosistema para validarlas en plataformas actuales y futuras. La producción en masa está prevista para finales de año, justo a tiempo para acompañar la próxima oleada de despliegues de IA generativa que se espera en 2026.
Queda por ver cómo responderán Samsung y SK Hynix, los otros dos pesos pesados de la memoria DRAM. Lo que sí parece claro es que la carrera por dominar la memoria de servidores para IA acaba de subir otro peldaño y los próximos meses serán determinantes para quien quiera marcar el ritmo.
