Pour gérer vos consentements :
Categories: Logiciels

Architectures multi-coeurs : la nouvelle donne

La banalisation, relative mais bien réelle, des architectures de serveurs X86 supportant du ‘bi-socket’ à 8, 12 voire 16 coeurs modifie l’équation de nombreux datacenters.

Au delà de la capacité théorique de la vitesse d’exécution par processeur, les responsables IT sont poussés à de nouveaux raisonnements, à une série de questions sur la pérennité des précédents calculateurs. Car il convient, à cause des nouvelles performances possibles, de faire notamment le point sur la puissance de calcul brute, par traitement, et la globalité d’un programme de traitements multiples.

Parmi les possibilités techniques, on va mentionner, par exemple, le ‘thread‘ blocable, c’est à dire la possibilité de dédier un coeur de processeur à certaines tâches.  Le nombre de canaux ‘mémoire’ (2 ou 4) impacte également les performances, puisqu’on raisonne sur du ‘multi-sockets’/multi-coeurs.
Si l’on est conduit à valoriser la performance mesurées en méga-FLOPs par mètre-carré, il est clair que des choix vont devoir être faits.

Ceci conduit à apprécier les performances de traitement selon deux angles très différents, et donc à faire des choix d’architecture bien distincts. Car sur le terrain, là où l’on a besoin de puissance de calcul, deux critères apparaissent vite en tête de liste:
– le temps que l’on peut qualifier « de restitution », c’est à dire le temps minimal, optimisé, que permet d’atteindre la machine pour un ‘job’ donné; -qu’on peut appeler la ‘capability‘;
– la capacité globale brute, ou ‘troughput’, c’est à dire le nombre de ‘jobs’ que peut supporter une même machine sur une journée, sur 24 heures, -ou la ‘capacity‘, qui tire parti, notamment, du traitement de tâches en parallèle, grâce aux multi-coeurs/ multi-sockets.

Le témoignage du CERFACS de Toulouse

CERFACS Toulouse, Nicolas Monnier

Lors d’une web-conférence en direct, ce mercredi 14 décembre à 11H (la session est en direct, on peut donc poser toute une liste de questions), cette question critique sera abordée et discutée, chiffres de benchmark à l’appui, avec le témoignage de Nicolas Monnier, DSI du centre de calcul CERFACS de Toulouse (*), spécialisé dans les calculs de simulation en 3D animée, pour le compte de ses actionnaires (CNES, EADS France, EDF, Météo France, Onera, Safran, Total…) .  Il expliquera notamment comment on peut parvenir à un doublement de capacité (de 22  à 50 megaflops d’une année sur l’autre!) sans tout changer -c ‘est à dire en tirant parti de la possibilité d’upgrader l’installation en passant des précédentes générations de processeurs multi-coeurs  -Westmere ou MagnyCours d’Intel et AMD, respectivement, à la génération Sandy Bridge, Interlagos… (proposant 4, 8, 12 et 16 coeurs).

En ouverture de cette session, les intervenants, dont un consultant indépendant, expliqueront les avantages pour des solutions de calculs purs -par exemple des simulations dans le domaine scientifique ou dans la virtualisation des applications, avec le support de centaines de ‘machines virtuelles’.
____
(*) CERFACS: Centre Européen de Recherche et de Formation Avancée en Calcul Scientifique; il a pour mission de développer des méthodes de simulation numérique avancées, dans la recherche publique et industrielle.
____
Webconférence,  du 14 décembre. Datacenter : doper les performances en maîtrisant/réduisant les coûts.  Qu’apporte la nouvelle génération de processeurs X86, à 8 ou 16 coeurs?  En savoir plus, ici.

Recent Posts

Pour son premier LLM codeur ouvert, Mistral AI choisit une architecture alternative

Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…

7 heures ago

Microsoft x Inflection AI : l’autorité de la concurrence britannique lance son enquête

L’Autorité de la concurrence et des marchés (CMA) britannique ouvre une enquête sur les conditions…

10 heures ago

Thomas Gourand, nouveau Directeur Général de Snowflake en France

Thomas Gourand est nommé Directeur Général pour la France. Il est chargé du développement de…

11 heures ago

Accord Microsoft-CISPE : comment Google a tenté la dissuasion

Pour dissuader le CISPE d'un accord avec Microsoft, Google aurait mis près de 500 M€…

11 heures ago

Vers des mises à jour cumulatives intermédiaires pour Windows

Pour réduire la taille des mises à jour de Windows, Microsoft va mettre en place…

12 heures ago

RH, finances, stratégie… Les complexités de la Dinum

De l'organisation administrative à la construction budgétaire, la Cour des comptes pointe le fonctionnement complexe…

1 jour ago