Los superchips Blackwell AI de próxima concepción de Nvidia podrían costar hasta 70.000 dólares; los racks de servidores totalmente equipados costarían hasta 3.000.000 de dólares o más

Las GPU Blackwell de Nvidia para aplicaciones de IA serán más caras que las CPU basadas en Hopper de la compañía, según analistas de HSBC citados por @primeraadopción, escritor senior de Barron's. Los analistas dicen que un superchip GB200 (CPU + GPU) podría costar hasta 70.000 dólares. Sin embargo, Nvidia podría estar más inclinada a vender servidores basados ​​en GPU Blackwell en lugar de vender chips por separado, especialmente porque se espera que los servidores B200 NVL72 cuesten hasta 3 millones de dólares cada uno.

HSBC estima que la GPU B100 "básica" de Nvidia tendrá un precio de venta promedio (ASP) de entre 30.000 y 35.000 dólares, que está al menos dentro del rango de precios de la H100 de Nvidia. El GB200 más potente, que combina una única CPU Grace con dos GPU B200, costaría entre 60.000 y 70.000 dólares. Y seamos realistas: en realidad podría costar un poco más que eso, ya que estas son sólo estimaciones de analistas.

Los servidores basados ​​en los diseños de Nvidia serán mucho más caros. La Nvidia GB200 NVL36 con 36 superchips Go200 (18 CPU Grace y 36 GPU B200 mejoradas) podría venderse por 1,8 millones de dólares de media, mientras que la Nvidia GB200 NVL72 con 72 superchips Go200 (36 CPU y 72 GPU) podría tener un precio de alrededor de 3 dólares . millones, según supuestas cifras de HSBC.

Cuando el director ejecutivo de Nvidia, Jensen, reveló los chips del centro de datos Blackwell en el GTC 2024 de este año, era obvio que la intención era mover bastidores completos de servidores. Jensen ha declarado varias veces que cuando piensa en una GPU, ahora imagina el bastidor NVL72. Toda la configuración se integra a través de conexiones de gran ancho de banda para funcionar como una GPU masiva, proporcionando 13.824 GB de VRAM total, un factor crítico en la formación de LLM cada vez más grandes.

Vender sistemas completos en lugar de GPU/Superchips independientes permite a Nvidia absorber parte de la prima obtenida por los integradores de sistemas, lo que aumentará sus ingresos y rentabilidad. Dado que los competidores de Nvidia, AMD e Intel, están ganando terreno muy lentamente con sus procesadores de IA (por ejemplo, la serie Instinct MI300, Gaudi 3), Nvidia ciertamente puede vender sus procesadores de IA a un precio muy alto. Por tanto, los precios supuestamente estimados por HSBC no son especialmente sorprendentes.

También es importante señalar las diferencias entre el H200 y el GB200. El H200 ya cuesta hasta 40.000 dólares por GPU individuales. El GB200 cuadruplicará efectivamente el número de GPU (cuatro chips de silicio, dos por B200), además de agregar la CPU y una PCB grande para lo que se llama Superchip. El cálculo bruto para un solo superchip GB200 es 5 petaflops FP16 (10 petaflops parsimoniosamente), en comparación con 1/2 petaflops (denso/escaso) en el H200. Eso es aproximadamente cinco veces el cálculo, sin siquiera tener en cuenta otras mejoras arquitectónicas.

Hay que tener en cuenta que los precios reales del hardware del centro de datos siempre dependen de los contratos individuales, del volumen de hardware solicitado y de otras negociaciones. Por lo tanto, tome estas cifras estimadas con un poco de sal. Es probable que los grandes compradores como Amazon y Microsoft obtengan grandes descuentos, mientras que los clientes más pequeños pueden tener que pagar un precio aún más alto de lo que informa HSBC.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir