La nueva memoria ultrarrápida de Micron para procurar las GPU con IA de próxima reproducción de Nvidia: chips HBM3E de 24 GB puestos en producción para la GPU con IA H200

Micron anunció hoy el inicio de la producción en volumen de su memoria HBM3E, la última memoria de la compañía para GPU de centros de datos y clase AI. En particular, Micron dice que su HBM3E se utiliza para el próximo H200 de Nvidia, cuyo lanzamiento está previsto para el segundo trimestre del año con seis chips de memoria HBM3E. Además, Micron también anunció que detallará sus próximos chips HBM3E de 36 GB en marzo en la conferencia GTC de Nvida.

En comparación con el HBM3 normal, el HBM3E aumenta el ancho de banda de 1 TB/s a 1,2 TB/s, un aumento modesto pero notable en el rendimiento. El HBM3E también aumenta la capacidad máxima por chip a 36 GB, aunque el HBM3E de Micron para el H200 de Nvidia tiene "sólo" 24 GB por chip, empatado con el máximo del HBM3. Estos chips también admiten ocho pilas de altura, en lugar del máximo de 12 que teóricamente puede ofrecer el HBM3E. Micron afirma que su particular memoria HBM3E tiene un consumo de energía un 30% menor que sus competidores, Samsung y Sk hynix, que también tienen sus propias implementaciones de HBM3E.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir