Intel Datacenter Day : Rajeeb Hazra, HPC et big data
Publié par La rédaction le | Mis à jour le
« To compete, you must compute ! ». Intel place la barre très haut sur le HPC, avec succès, mais en veut plus, de la démocratisation du calcul au big data.
En direct de San Francisco : Indéniablement, le HPC ça marche chez Intel. Et ce n'est pas Rajeeb Hazra, Vice President & General Manager Technical Computing Group Datacenter & Connected Systems Group d'Intel, en charge en particulier du HPC (High Performance Computing) soit du calcul, qui nous contredira sur ce point.
Intel et le HPC
De largement minoritaire il y a 15 ans sur le Top 500 des supercalculateurs, ils étaient présents sur 3 % seulement des machines, les processeurs Intel sont passés à 80 % du classement. Mieux encore, 12 % de l'industrie américaine aurait déployé des solutions de HPC, comme nous l'a révélé la patronne du groupe, Diane Bryant, dans son introduction (lire « Intel Datacenter Day : Diane Bryant veut réarchitecturer le datacenter »).
L'origine de ce succès ? La performance des processeurs Xeon dans le calcul - décuplée grâce à Xeon Phi - et leur polyvalence. Mais également la standardisation des plateformes autour de l'architecture x86 qui la rend plus accessible dans un domaine où la programmation reste de mise.
Le HPC : fondamental pour l'industrie
« Le HPC est devenu une capacité fondamentale pour l'industrie, qui demande un niveau d'innovation sans précédent. Le HPC est l'outil pour débloquer les secrets de l'univers. C'est pourquoi Intel investit dans le matériel, le logiciel, l'écosystème et les instances de régulation ». Interpelé sur ces dernières, Rajeeb Hazra nous a indiqué que son objectif était de les inciter à rendre le HPC accessible jusqu'aux PME. « Nous voulons briser la barrière de l'accès au HPC par les PME. C'est pour nous nous adressons aux politiques. »
« Le HPC permet de construire un meilleur produit, plus rapidement et moins cher ». Et de citer l'exemple du constructeur automobile allemand Audi, qui a adopté un système HPC basé sur un cluster de processeurs Intel Xeon pour réaliser du design sans prototypes. « En donnant une vison de la réalité sans besoin de prototypes, nous transformons le business. La nouvelle frontière du HPC, c'est la création de nouveaux workloads. »
Trois grandes tendances ressortent de la vision d'Intel sur le futur du HPC :
- Se rapprocher du Big Data
L'idée d'Intel est de créer des modèles pilotés par la donnée, le HPC - via la puissance d'un système x86 ouvert - se chargeant ensuite de transformer la donnée en connaissance. « Notre nouvelle frontière, c'est de transformer la donnée en connaissance. »
- Redéfinir le compute
Intel part du constat que l'hétérogénéité va rester. Il lui faut donc désigner les points dans l'infrastructure qui doivent être développés, ce qui de l'avis de Rajeeb Hazra s'avère difficile. C'est pourquoi il lui préfère l'approche de la néo-hétérogénéité,à savoir un seul modèle de programmation, une seule connaissance pour assurer les développements spécifiques. Ans oublier d'augmenter l'expérience autour de Intel Xeon Phi.
- La fabric
Dernière tendance qui devrait émerger, la concentration de la ruche réseau dans une fabrique contrôlée par le processeur. « La réduction du nombre de composants doit également concerner le réseau, qui représente jusqu'à 20 a 30 % de la consommation du datacenter. L'intégration du contrôleur de fabric dans le processeur ou au plus prés du processeur est ce qui change le jeu. »
Et dans le futur ?
Selon Intel,les technologies de calcul devraient envahit notre quotidien durant la prochaine décade et enrichir la vie de chacun d'entre nous. Il suffit de reprendre et prolonger l'augmentation régulière de la puissance et la réduction de la consommation énergétique, qui suivent le rythme d'apparition des devices (PC, tablettes, smartphone) pour se dire que la démocratisation du HPC est en marche et pourrait même s'accélérer.