HPE, précurseur du Memory Driven Computing

Replacer la mémoire et non plus le processeur au centre de l’architecture de l’ordinateur, telle est la promesse du Memory Driven Computing. Un changement d’approche qui trouve totalement résonnance à l’heure de la transformation numérique, où la data est au cœur des stratégies d’entreprise.

« S’il faut résumer le concept de Memory Driven Computing, il s’agit d’un énorme bus mémoire auquel viennent se rattacher des processeurs et des mémoires, avec des protocoles sécurisés afin d’échanger des données entre éléments de calcul et éléments de stockage », explique Patrick Demichel, Strategic Systems Architect chez HPE.

Puisque le coût de la mémoire a chuté, il est devenu possible, et parfois extrêmement pertinent, de stocker des données non plus au niveau des disques mécaniques ou SSD, mais directement sur le support le plus rapide, la mémoire vive. « Cette approche consistant à mettre la donnée en mémoire centrale plutôt que sur les unités de stockage est clairement bien plus coûteuse, mais ce surcoût peut s’avérer pertinent dans de multiples applications », précise l’expert.

C’est notamment le cas dans l’analytique, où nous voyons les bases de données de type « in-memory » monter en puissance sur le marché. Grâce à elles, les experts peuvent réaliser des analyses sur de gros volumes de données en quasi-temps réel. Chose qui était impossible jusqu’alors avec les data warehouse traditionnels.

Les architectures classiques atteignent leurs limites d’adressage

L’architecture x86 classique limite en capacité d’adressage les serveurs. On ne peut en effet étendre à l’infini la capacité mémoire d’un serveur.

Même les machines de haut de gamme spécialisées sont limitées. « Nos Superdome, par exemple, ont une capacité de l’ordre de quelques dizaines de téraoctets, alors que nos clients nous réclament déjà des capacités de plusieurs centaines de téraoctets. Les solutions de connexion de cluster de machines en réseau ne permettent pas aujourd’hui de connecter les mémoires vives “sans couture”, car les réseaux existants ne sont pas adaptés aux accès mémoire totalement aléatoires. »

Puisque les solutions actuelles arrivent à leurs limites, HPE a entrepris de créer un réseau optique extrêmement performant pour ce type d’usage. C’est, avec les mémoires non volatiles, l’un des points clés de son projet de recherche « The Machine ». Un projet officiellement lancé en 2014. Il est longtemps resté mystérieux, seules quelques bribes d’informations filtrant à l’occasion des événements du constructeur. Notamment lorsque fut dévoilé le module photonique X1, un composant clé dans la « Fabric », le réseau optique qui allait interconnecter les mémoires d’une grappe de serveurs. En novembre 2016, HPE a enfin annoncé avoir mis sous tension le tout premier prototype de serveur de type Memory-Driven. Une machine dont on sait peu de choses, mais qui compterait déjà 40 nœuds actifs.

HPE - The Machine

Une des difficultés de cette nouvelle révolution informatique va être le colossal existant sur lequel s’appuient tant les entreprises que les administrations. C’est la raison pour laquelle HPE a travaillé sur différents modes pour accéder à la matrice, comme l’explique Patrick Demichel : « L’espace de mémoire persistante sera accessible aux applications via plusieurs moyens d’accès : un mode compatibilité, où l’on mappe la mémoire comme un disque. On continue à utiliser l’OS et les drivers, ce qui permettra aux applications actuelles de continuer à fonctionner. Toute la latence est au niveau software. À l’opposé, le mode direct est le plus performant, mais va imposer de modifier en profondeur les applications pour être utilisé. Un mode intermédiaire permettra d’optimiser en partie les accès sans trop impacter l’architecture des applications. »

Patrick Demichel, HPE

HPE est extrêmement actif dans le domaine des machines Memory-Driven. Notamment dans la recherche sur les mémoires non volatiles. Pour initier cette révolution et convaincre équipementiers et autres constructeurs de le suivre, l’Américain a lancé la création d’un consortium industriel baptisé Gen-Z.

Gen-Z, un consortium pour concevoir les ordinateurs du futur

Gen-Z regroupe pratiquement tous les grands acteurs des infrastructures informatiques afin de développer le concept de Memory Driven Computing. « L’objectif de Gen-Z, qui découle de notre projet de recherche “The Machine”, consiste à offrir un espace d’adressage mémoire illimité. Quand on voudra accéder à une donnée distante qui est localisée dans un autre cluster, il sera possible d’effectuer un mapping de la région mémoire pour y placer un objet et accéder ensuite à l’objet sans API, comme si on ne disposait que d’un seul énorme espace mémoire. La communication est transparente pour l’application, qui n’a plus à faire appel à une API spécifique. »

Des processeurs ou accélérateurs différents pourront travailler ensemble sur un même problème grâce à cette vue partagée des données. GenZ va donc stimuler l’écosystème en proposant une plateforme ouverte. Dès qu’une innovation dans les processeurs ou une nouvelle génération de mémoire apparaitra, elle sera immédiatement disponible pour la totalité des technologies des partenaires.

L’expert révèle que l’objectif est, à terme, d’avoir une latence qui soit de l’ordre de celle de la DRAM actuelle. Outre la création du consortium, qui s’avère un succès, car beaucoup de grands noms de l’informatique se sont ralliés au panache Gen-Z ces derniers mois, HPE a donné une grosse partie de sa propriété intellectuelle au consortium Gen-Z afin que toute l’industrie puisse l’exploiter et accélérer l’essor de cette nouvelle approche. « Nous pensons que cette innovation peut rebooster l’industrie informatique dans son ensemble. Tous les acteurs en profiteront et même si nous avons donné une partie de notre propriété intellectuelle nous serons bien placés pour récolter les fruits lorsque cette technologie va exploser. » Une nouvelle ère informatique est en train de naitre sous nos yeux et nous serons bientôt tous des Génération-Z !