Recherche

Datacenters : Intel lance ses puces serveurs Xeon E5 2600 v3

Intel vient de présenter toute une gamme de puces pour serveurs Xeon E5 2600 v3. Intégrant la microarchitecture Haswell. Elles apportent des réponses aux besoins de performances et de rationalisation des coûts des datacenters.

Publié par La rédaction le | Mis à jour le
Lecture
4 min
  • Imprimer
Datacenters : Intel lance ses puces serveurs Xeon E5 2600 v3

C'est le grand jour pour Intel qui lève le voile sur la troisième génération de ses puces Xeon E5 2600 pour serveurs. Ces puces selon Philippe Jean-Laurent, responsable EMEA des ventes techniques chez Intel ont été élaborées pour répondre à plusieurs exigences, « un besoin de provisionning rapide, une efficacité optimale du datacenter avec une réduction des coûts d'exploitation ».

Pour répondre à ces demandes, les puces Xeon E5 2600 v3 connues sous le nom de code Grantley (c'était Romley pour la v2) intègrent la microarchitecture Haswell. Si la gravure reste en 22 nanomètres, les puces comprennent jusqu'à 18 cours par socket avec une fréquence d'horloge pouvant atteindre 3,7 GHz et un cache de 45 Mo. Intel prévoit 32 variantes des processeurs allant du standard à la version optimale. Toujours sur les questions de performance, Intel annonce pour la première fois le support des mémoires DDR4 qui affichent une bande passante deux fois plus véloce que celles en DDR3 (1 066 MT/s (megatransfert par seconde) et 8,5 Go/s pour la DDR3 contre 2 133 MT/s et 17 Go/s pour la DDR4). Plusieurs fabricants de barrettes de mémoire ont validé l'optimisation de leurs produits DDR4 comme Crucial par exemple. Autre avantage de la DDR4, une consommation énergétique en baisse de 40% grâce à sa tension d'alimentation 20% plus faible que celle de la DDR3 (1,2 v contre 1,5 v pour la DDR3 standard).

40G supporté et nouvelles fonctionnalités

Les puces Xeon E5 v3 embarqueront des fonctionnalités supplémentaires. « Les processeurs vont être capables d'optimiser la gestion des ressources compute, stockage et réseau », explique Philippe Jean-Laurent. Sur l'aspect réseau souvent considéré comme le goulet d'étranglement au sein des datacenters, les processeurs vont supporter la connectivité 40 Gbit Ethernet. « De plus en plus de charges de travail nécessitent de grandes puissances de calcul et la connectivité 10 Gbit Ethernet commence à devenir un peu petit, l'avenir passera avec la démocratisation du 40 Gbit Ethernet », souligne le responsable. Pour la partie stockage, les processeurs sont compatibles avec le protocole NVMe qui est plus adaptés pour les SSD PCI express, notamment pour à haute densité pouvant aller actuellement jusqu'à 2 To.

Les puces héritent également de nouvelles instructions dont FMA qui permet de combiner en même temps 1 multiplication et 1 addition vectorielle accélérant ainsi le temps de calcul en virgule flottante. Par contre, la partie gestion de la mémoire transactionnelle (TSX) pour simplifier le travail des développeurs en cas de programmation avec plusieurs threads continue à être désactivée en raison d'un bug. Malgré une correction au mois d'août, Intel préfère attendre et l'activera le moment venu, précise-t-on diplomatiquement.

Des métriques et des traitements algorithmiques taillés pour les fournisseurs de Cloud

Pour montrer les avantages de ce processeur, Intel a fourni à des clients des whitebox équipées des puces Xeon E5 2600 v3. C'est le cas d'Outscale, fournisseur de Cloud public français et mondial, dont le principal client est Dassault Systèmes. Pour Laurent Seror, PDG d'Outscale, ces puces se sont révélées très performantes pour déployer 40 000 VM réparties sur plusieurs datacenters dont 2 en France. « Les puces Xeon E5 v2600 ont été optimisées notamment pour notre architecture reposant sur KVM plus un OS maison qui se nomme TinaOS. Elles sont également parfaitement adaptées à nos choix d'infrastructures basé sur des serveurs UCS de Cisco et du stockage NetApp. Cela implique beaucoup de besoin en traitement d'algorithmes et les puces ont répondu à cette exigence », constate le dirigeant.

Il ajoute que «  l'aspect métrologique est rendu nécessaire, car nous sommes dans une logique de Big Data et de yield management sur les ressources attribuées. L'idée est donc de maximiser les opérations par rapport à la consommation énergétique ». Il salue bien évidement l'arrivée de la prise en charge de la mémoire DDR4 et des fonctionnalités d'administrations des ressources. Au final, pour lui la loi de Moore s'applique toujours même si on ne parle plus du doublement du nombre de transistors tous les 18 mois. « L'évolution est maintenant dans l'amélioration des puces, pas uniquement sur l'accroissement des transistors. Dans le Cloud, nous pouvons ainsi offrir un doublement des performances tous les 18 mois. »

Au final, avec cette annonce majeure sur les processeurs serveurs Xeon E5, Intel entend bien continuer à assoir sa prédominance dans les serveurs pour datacenters. Une domination mise en danger par le développement des serveurs ARM qui revendiquent une meilleure gestion énergétique. Un argument sensible pour les responsables IT soumis à des contraintes budgétaires importantes. Reste que les serveurs ARM restent pour l'instant très discrets et que l'écosystème est en pleine phase de construction.

A lire aussi :

Intel Broadwell-EP : des Xeon E5 embarquant jusqu'à 18 coeurs

Bataille de coeurs pour les puces serveurs ARM 64 bits

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page