Recherche

Intel lâche ses Xeon Ice Lake face aux EPYC Milan d'AMD

Avec les Xeon Ice Lake, Intel fait le grand saut vers les 10 nm dans sa gamme datacenter. Qu'y a-t-il au-delà de la finesse de gravure ?

Publié par Clément Bohic le - mis à jour à
Lecture
3 min
  • Imprimer
Intel lâche ses Xeon Ice Lake face aux EPYC Milan d'AMD

2021, année la plus excitante dans l'univers des serveurs depuis une décennie ? ServeTheHome l'affirme après avoir testé les Xeon Ice Lake. Du côté d'Anandtech, on évoque « un grand bond en avant » pour Intel.

Le groupe américain vient d'officialiser cette famille de processeurs. Comme la lignée Copper Lake lancée l'an dernier, elle fait partie de la troisième génération des Xeon Scalable. Mais avec un changement de microarchitecture (Sunny Cove) et de gravure (passage de 14 à 10 nm).

Le catalogue comprend une quarantaine de références. Elles se répartissent en quatre séries : Platinum (8300), Gold (6300, 5300) et Silver (4300). Pas de Bronze au rendez-vous.

Les Xeon Ice Lake ne se destinent qu'à des configuration à un ou deux sockets. Contre jusqu'à huit pour les Copper Lake, qui ciblent des workloads plus intensifs de type bases de données en mémoire.

Tout en haut de gamme, on monte à 40 cours et 270 W avec le Xeon 8380. Prix client conseillé : 8 099 $. À l'autre extrémité, le Xeon 4309 est à 8 cours et 105 W, pour un tarif de base de 501 $.

Sur l'ensemble des modèles, les cadences ne dépassent pas 3,7 GHz. Sachant que certains Xeon Scalable de 2e génération (Cascade Lake) atteignent 4,5 GHz. Cela n'empêche pas, d'après Anandtech, de nets gains entre les Xeon 8380 et 8280 (28 cours ; 205 W), porte-drapeaux respectifs d'Ice Lake et de Cascade Lake. À pleine puissance, +18 % sur le rapport performance/watt. Et en bridant le 8380 à 205 W, +36 %. En revanche, le Xeon Gold 6330, similairement doté, ne se révèle pas beaucoup plus performant.

En attendant Sapphire Rapids

Tom's Hardware revient sur les avancées architecturales qui expliquent en partie ces gains. Parmi elles, il y a la virtualisation du sous-système I/O, l'accroissement de la bande passante entre cours, le passage à 42 Ko de cache L1 ou encore le haussement des fréquences pour les opérations AVX-512 et 256.

Des avancées, il y en a aussi sur le volet de la sécurité. En particulier le chiffrement total de la mémoire via AES-XTS 128. Et l'ajout de plusieurs types d'instructions de cryptographie (GFNI, VAES, SHA-NI.). Mais aussi la prise en charge de SGX, une première sur cette gamme (il fallait auparavant se tourner vers les Xeon E).

En haut de gamme, la concurrence est rude, autant avec les puces Arm que les derniers-nés d'AMD. Ceux-ci ont une longueur d'avance en performance pure. Pour compenser, Intel joue sur son portefeuille annexe de technologies « accélératrices ». Notamment :

  • Mémoire Optane 200 (jusqu'à 4 To/socket ; non prise en charge sur les Silver)
  • SSD Optane P5880X (PCIe)
  • Adaptateurs Ethernet 800 (200 GbE)
  • FPGA Agilex

La 3e génération des Xeon Scalable, c'est aussi le passage de PCIe 3 à PCIe 4. A priori pour une courte durée : Sapphire Rapids, attendu pour 2022, apportera le PCIe 5, en plus de la DDR5.

On aura noté l'apparition de nouveaux suffixes dans la nomenclature d'Intel. Ils reflètent des optimisations pour divers cas d'usages : M pour le multimédia, N pour le réseau, P pour l'IaaS, V pour le SaaS. Quant au T, il s'applique aux puces à support thermique étendu (généralement, de -40 °C à 125 °C).

Illustration principale © Tim Herman / Intel Corporation

Sur le même thème

Voir tous les articles Workspace

Livres Blancs

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page