Startup está construyendo una supercomputadora con 22,000 GPU de enumeración Nvidia H100

Inflection AI, una nueva empresa fundada por el exjefe de Deepmind y respaldada por Microsoft y Nvidia, recaudó $1.3 mil millones de pesos pesados ​​de la industria en efectivo y crédito en la montón la semana pasada. Parece que la compañía usará el fortuna para construir un liga de supercomputadoras alimentado por hasta 22,000 GPU de enumeración Nvidia H100, que tendrá un rendimiento de potencia de enumeración teórico mayor comparable al de la supercomputadora Frontier.

"Vamos a construir un liga de cerca de de 22,000 H100", dijo Mustafa Suleyman, fundador de DeepMind y cofundador de Inflection AI, informa Reuters. "Eso es aproximadamente tres veces más computación que la que se usó para entrenar todo GPT-4. La velocidad y la escalera son lo que en realidad nos permitirá crear un producto diferenciado".

Un clúster alimentado por 22 000 GPU de enumeración Nvidia H100 es teóricamente capaz de 1474 exaflops de rendimiento FP64, es afirmar, utilizando núcleos Tensor. Con el código genérico FP64 ejecutándose en núcleos CUDA, el rendimiento mayor es solo la porción: 0,737 FP64 exaflops. Mientras tanto, la supercomputadora más rápida del mundo, Frontier, tiene un rendimiento informático mayor de 1813 exaflops FP64 (el doble de 3626 exaflops para operaciones matriciales). Esto coloca a la nueva computadora planificada en segundo punto en este momento, aunque podría caer al cuarto punto a posteriori de que El Capitán y Aurora estén completamente en vírgula.

Si perfectamente el rendimiento del FP64 es importante para muchas cargas de trabajo científicas, es probable que este sistema sea mucho más rápido para las tareas centradas en la IA. El rendimiento mayor de FP16/BF16 es de 43,5 exaflops y el doble de 87,1 exaflops para el rendimiento de FP8. La supercomputadora Frontier impulsada por 37 888 AMD Instinct MI250X tiene un rendimiento mayor de BF16/FP16 de 14,5 exaflops.

Se desconoce el costo del clúster, pero teniendo en cuenta que las GPU de enumeración H100 de Nvidia cuestan más de $ 30,000 por pelotón, esperamos que las GPU del clúster cuesten cientos de millones de dólares. Agregue todos los servidores en rack y otro hardware y eso sería la longevo parte de la financiación de $ 1.3 mil millones.

Inflection AI está actualmente valorado en cerca de de $ 4 mil millones, aproximadamente un año a posteriori de su fundación. Su único producto flagrante es un chatbot de inteligencia industrial generacional llamado Pi, iniciales de inteligencia personal. Pi está diseñado para servir como un asistente personal impulsado por IA con tecnología de IA generativa similar a ChatGPT que respaldará la planificación, la programación y la compilación de información. Esto permite que Pi se comunique con los usuarios a través del diálogo, lo que permite a las personas hacer preguntas y ofrecer comentarios. Entre otras cosas, Inflection AI ha establecido objetivos específicos de experiencia de heredero para Pi, como ofrecer apoyo emocional.

Actualmente, Inflection AI opera un clúster basado en 3584 GPU de enumeración Nvidia H100 en la montón de Microsoft Azure. El clúster de supercomputación propuesto ofrecería cerca de de seis veces el rendimiento de la decisión flagrante basada en la montón.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir