Processeurs x86: les atouts de la génération multi-coeurs
Le passage d'une génération de processeurs à une autre semble être une opération banale, de nos jours. Pourtant rares sont les occasions permettant de comparer des 'benchmarks' traduisant ces sauts de génération et les gains de performances obtenus.
Ce 14 décembre, un web-séminaire où témoignait un centre de recherche (utilisé par EADS, le CNES, l'Onera, Méteo France.) a permis de constater la réalité des performances obtenues.
Comme l'a expliqué, en entrée de jeu, Vincent Heuschling, consultant (*), les enjeux sont critiques pour ces utilisateurs en quête de surplus de puissance. Sans nécessairement explosé leur budget IT -c'est à dire souvent à investissement constant, voire en le réduisant-, les responsables de datacenters doivent garantir une hausse significative des performances du SI, tout en gagnant en réactivité -surtout s'ils envisagent une orientation vers une architecture de type 'cloud' -donc rationalisation et automatisation, virtualisation, consolidation).
Devant les volumes toujours plus vastes de données à traiter, la pression porte aussi sur les analyses en temps réel, d'où le succès des solutions en 'clusters' et des traitements de bases de données en 'in-memory'.
Le bilan énergétique devient tout aussi important -donc, impossible de faire l'impasse sur son ratio énergétique (le fameux PUE). La performance se chiffre désormais au mètre carré, avec une augmentation de la densité (grâce, le plus souvent à la virtualisation).
Dans sa démonstration, HP insiste également sur l'efficacité énergétique, sur la souplesse d'administration et ce que l'on peut appeler « l'efficacité financière« , qui peut se traduire, notamment, par des options garantissant une évolution sur plusieurs années grâce, par exemple, au changement de génération de processeurs multi-coeurs sur les mêmes architectures 'multi-sockets'.
Cette session a permis de démontrer, en autres arguments percutants, qu'à raison d'une machine virtuelle (VM) par coeur, on peut héberger jusqu'à 672 VM dans un rack de 42 U (sur du HP ProLiant DL385). Et HP fait également la démo qu'avec les nouveaux Opteron 6200 d'AMD ('Interlagos', successeurs des Magny-Cours) on peut gagner 37% de performances sur des applications de bases de données. Et en mode 'supercalculateur' (ou HPC), le benchmark LinPack montre un doublement de la performance mesurée en giga-FLOPs!
AMD, pour sa part, montre que le prix peut rester inchangé en passant de configurations 2P à 4P -donc, même architecture processeur, qu'il s'agisse de processeurs à 4, 8, 12 ou 16 coeurs. Et, par rapport à la concurrence, ce peut être deux fois plus de capacité mémoire et jusqu'à trois fois plus de capacité de stockage (comparaison entre 2 Xeon ES5640 et 2 Opteron 6220, par exemple).
Sur le terrain, les arguments ne manquent pas. Le CERFACS de Toulouse, Centre Européen de Recherche et de Formation Avancée en Calcul Scientifique, explique clairement comment à budget constant, il fait mieux que la loi de Moore: grâce au saut de génération des architectures multicoeurs (de 2 à 4 coeurs, puis de 8 à 12, etc.) il parvient à doubler sa capacité de traitement tous les ans! Son DSI, Nicolas Monnier, confirme également qu'il prévoit de faire le même saut lors de son prochain appel d'offres pour 2012-2013.
_____
Datacenters : Peut on doubler la performance à coûts constants ? la réponse de HP et AMD
Web-conférence du 14 déc. 2011, avec présentations, graphiques 'benchmarks', - et débat questions/réponses, consultable ici
(*) Affini-tech, https://www.affini-tech.com
Sur le même thème
Voir tous les articles Actualités