Nvidia passe ses GPU A100 au format PCIe
Nvidia recense une cinquantaine de modèles de serveurs qui embarqueront, d'ici à fin 2020, ses GPU A100, tout juste déclinés au format PCIe.
Les GPU Nvidia A100 sont désormais officiellement disponibles au format PCIe.
Celui-ci s'ajoute au format SXM4 (carte mezzanine) dévoilé à la mi-mai. Il en reprend la configuration, avec des performances légèrement réduites, à 90 % sur les tâches impliquant un seul GPU).
Ce décalage s'explique par une enveloppe thermique restreinte (250 W au lieu de 400) liée à la moindre marge que le PCIe offre en matière d'alimentation et de refroidissement.
Autre différence avec le format SXM4 : la technologie NVLink (communication inter-GPU) n'est pas exploitée à son plein potentiel. L'architecture se rapproche en l'occurrence des GPU de la génération précédente (les V100), avec néanmoins trois liens par connexion et la prise en charge du PCIe 4.0.
Nvidia en profite pour faire le point sur l'offre de serveurs qui embarqueront ses GPU A100. Il en recense une cinquantaine attendus d'ici à la fin de l'année, dont une trentaine pour cet été.
Les processeurs AMD EPYC 7002 y sont fortement représentés. Par exemple* sur :
- l'Asus ESC4000A-E10 (2U, monosocket, jusqu'à 8 GPU) ;
- le G292-Z40 de Gigabyte (2U, bisocket, jusqu'à 6 GPU) ;
- . et le supercalculateur BullSequana X2415 d'Atos (1U, bisocket, jusqu'à 4 GPU sur carte SXM4)*
Nouvelle référence au catalogue de Nvidia pour les usages liés à l'IA, l'A100 apporte, par rapport au V100 :
- Une gravure à 7 nm (vs 12 nm)
- Un débit FMA quadruplé pour les cours Tensor
- Un élargissement des niveaux de précision (prise en charge de BF16, TF32 et FP64 pour l'entraînement de modèles ; d'INT8, INT4 et INT1 pour l'inférence)
- Une amélioration de la fonction de virtualisation des GPU, pour dédier à chacun sa RAM et son cache L2
* Le BullSequana X2415 figure en illustration principale.
Photos d'illustration © Atos & Nvidia
Sur le même thème
Voir tous les articles Cloud