Las GPU Nvidia A100 'actualizadas' aparecen en el mercado de segunda mano de China: las nuevas tarjetas superan a sus homólogas autorizadas con 7.936 núcleos CUDA y 96 GB de memoria HBM2

El Ampere A100 de Nvidia fue anteriormente uno de los mejores aceleradores de IA, antes de ser destronado por el nuevo Hopper H100, sin mencionar el H200 y el próximo Blackwell GB200. Parece que el fabricante de chips experimentó con una versión mejorada que nunca llegó al mercado, o tal vez las empresas modificaron clandestinamente el A100 para hacerlo aún más rápido a raíz de las sanciones de Estados Unidos contra China. Usuario

A pesar de sus atributos reforzados, el A100 7936SP (nombre no oficial, basado en sus procesadores de sombreado 7936) comparte el mismo troquel GA100 Ampere que el A100 estándar. Sin embargo, el primero tiene 124 SM (Streaming Multiprocessors) activados de los 128 posibles en el silicio GA100. Aunque no es la configuración máxima, el A100 7936SP tiene un 15% más de núcleos CUDA que el A100 estándar, lo que representa una mejora significativa del rendimiento.

El número de núcleos tensoriales también aumenta proporcionalmente al número de SM. Por lo tanto, tener más SM habilitados significa que el A100 7936SP también tiene más núcleos Tensor. Basándonos únicamente en las especificaciones, aumentar la cantidad de núcleos SM, CUDA y Tensor en un 15% podría aumentar de manera similar el rendimiento de la IA en un 15%.

Nvidia ofrece el A100 en configuraciones de 40 GB y 80 GB. El A100 7936SP también viene en dos variantes. El A100 7936SP El modelo de 40 GB tiene un reloj base un 59% más alto que el A100 de 80 GB, manteniendo el mismo reloj de refuerzo de 1410 MHz. Por otro lado, el A100 7936SP 96GB tiene un reloj base un 18% más rápido en comparación con el A100 normal, y también permite que la sexta pila HBM2 alcance los 96GB de memoria total. Desafortunadamente, los vendedores chinos censuraron el aumento de la velocidad del reloj en la captura de pantalla de GPU-Z.

Especificaciones de Nvidia A100 7936SP

Arrastra para desplazarte horizontalmente
Tarjeta gráfica A100 7936SP 96GB A100 80GB A100 7936SP 40GB A100 40GB
Arquitectura GA100 GA100 GA100 GA100
Proceso tecnológico TSMC7N TSMC7N TSMC7N TSMC7N
Transistores (miles de millones) 54.2 54.2 54.2 54.2
Tamaño del troquel (mm^2) 826 826 826 54.2
SMS 124 108 124 108
Núcleos CUDA 7.936 6.912 7.936 6.912
Núcleos tensoriales/AI 496 432 496 432
Núcleos de trazado de rayos N / A N / A N / A N / A
Reloj base (MHz) 1.260 1.065 1.215 765
Reloj de refuerzo (MHz) ? 1.410 1.410 1.410
TFLOPS (FP16) >320 312 358 312
Velocidad de VRAM (Gbps) 2.8 3 2.4 2.4
VRAM (GB) 96 80 40 40
Ancho del bus VRAM (bits) 6.144 5.120 5.120 5120
L2 (MB) ? 80 ? 40
Unidades de salida de renderizado 192 160 160 160
Unidades de mapeo de texturas 496 432 432 432
Ancho de banda (TB/s) 2.16 1,94 1,56 1,56
TDP (vatios) ? 300 ? 250

El subsistema de memoria A100 7936SP de 40 GB es idéntico al A100 de 40 GB. Los 40 GB de memoria HBM2 funcionan a 2,4 Gbps en una interfaz de memoria de 5120 bits utilizando cinco pilas HBM2. El diseño contribuye a un ancho de banda de memoria máximo de hasta 1,56 TB/s. El modelo A100 7936SP de 96 GB, sin embargo, es el foco aquí. La tarjeta gráfica tiene un 20% más de memoria HBM2 que la que ofrece Nvidia gracias a la sexta pila HBM2 habilitada. Entrenar modelos de lenguaje muy grandes puede requerir mucha memoria, por lo que la capacidad adicional definitivamente sería útil para el trabajo de IA.

El A100 7936SP de 96 GB parece tener un subsistema de memoria renovado en comparación con el A100 de 80 GB: la memoria HBM2 se registra a 2,8 Gbps en lugar de 3 Gbps, pero reside en un bus de memoria más ancho de 6144 bits para ayudar a compensar la diferencia. Esto se traduce en que el A100 7936SP de 96 GB tiene aproximadamente un 11 % más de ancho de banda de memoria que el A100 de 80 GB.

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Subir