Pour gérer vos consentements :
Categories: Cloud

Les limites du cloud computing… par le haut !

Le cloud computing est séduisant, et accessible même aux plus petites entreprises. Pourtant le débat sur le seuil de la bascule entre informatique classique et cloud, ou entre cloud privé interne et cloud hébergé perdure. Et si nous nous posions la question inverse : est-il intéressant d’adopter le cloud pour des projets dans le haut des technologies, comme le calcul ? Un projet du département américain de l’énergie vient démontrer qu’à un certain niveau de performances et de technicités, le cloud n’est financièrement plus dans le coup.

Le projet test nommé Magellan, initié par le département américain de l’énergie au profit des chercheurs universitaires des laboratoires d’Argonne et de Lawrence Berkeley, est destiné au décryptage de l’expansion de l’Univers. C’est un projet scientifique, qui nécessite un environnement HPC (high-performance computing) qui devient relativement courant dans de nombreuses grandes entreprises ou dans des organisations de type recherche universitaire.

Cloud ou pas cloud ?

Doté d’un budget de 32 millions de dollars, Magellan s’appuie initialement sur le NERSC (National Energy Research Scientific Computing Center) qui exploite deux calculateurs Hopper signés Cray. Argonne et Lawrence Berkeley disposent ainsi chacun de 8240 coeurs de CPU (processeurs multicoeurs) et d’un stockage de 1,4 pétaoctet (Po ou 1,4 million de Go).

Mais les promoteurs du projet se sont dernièrement interrogés sur l’opportunité d’adopter une solution dans le nuage, surtout depuis qu’Amazon propose son propre service de mise à disposition de ressources HPC dans son cloud. Et celui-ci offre quelques avantages séduisants, comme le « pay-as-you-use », la réserve de performance avec une capacité de monter en puissance à la demande, la réserve de stockage, la colocation (multitenancy) censée réduire les coûts, ou encore les machines virtuelles (VM).

C’est d’abord une question de coût

Face au cloud, les scientifiques américains ont défini des besoins précis, comme l’accès à de nombreuses applications scientifiques, d’énormes volumes de données et des I/O (entrées/sorties) nombreuses et performantes. L’architecture cloud permet-elle de répondre à ce cahier des charges en permettant d’accéder à des ressources suffisantes pour y répondre ? Pas systématiquement. Les applicatifs compatibles avec les architectures cloud sont encore trop peu nombreux et la puissance accessible risque fortement de se révéler insuffisante.

Mais surtout c’est le coût de l’opération qui est pointé du doigt : le NERSC affiche un prix au CPU et à l’heure de 1,8 cent (0,018 dollar). Raisonnable il respecte l’enveloppe budgétaire des 32 millions de dollars affecté à Magellan. L’estimation calculée sur le cloud d’Amazon HPC est de 10 à 20 cents ! Dans son rapport, le département de l’énergie indique clairement que « le cloud est 7 à 13 fois plus élevé ». Il en couterait quatre fois le budget opérations du NERSC, soit environ 200 millions de dollars.

L’architecture interne s’impose comme la plus accessible

La conclusion du projet Magellan est qu’en dépassant certains seuils de ressources, de performances et de disponibilité, la solution de l’architecture interne s’impose comme la plus financièrement accessible. Le rapport pointe également des ruptures dans la courbe de compétence et de formation des utilisateurs du cloud, ainsi que de trop nombreuses interrogations qui demeurent sur la sécurité, les performances, la gestion et les applications.

Plus les besoins sont lourds et complexes, et moins le cloud computing semble apte à répondre aux attentes. L’association de la flexibilité du cloud à la performance du HPC, pour possible qu’elle soit, reste donc réservée à des projets peu gourmands en ressources. Si c’est une ouverture intéressante offerte aux petits projets, les gros risquent fortement d’attendre – longtemps ? – avant de trouver dans le cloud une alternative aux solutions aujourd’hui déployées.

Recent Posts

Windows et Azure sont tombés : Crowdstrike à la source d’une panne informatique mondiale

Une mise à jour de l'EDR Crowdstrike Falcon a planté une multitude de serveurs et…

3 heures ago

Les choix d’OpenAI pour GPT-4o mini

Un modèle GPT-4o mini rejoint le catalogue d'OpenAI. De la conception à l'évaluation, il a…

10 heures ago

Le Réseau interministériel de l’État, sujet à dépendance

La Cour des comptes appelle à formaliser et à professionnaliser certains aspects du RIE, tout…

1 jour ago

Etalab en position de faiblesse au sein de la Dinum

La Cour des comptes attire l'attention sur le risque d'affaiblissement d'Etalab, privé, ces dernières années,…

1 jour ago

Une Dinum « balbutiante » sur l’open data et les logiciels libres

Missions historiques de la Dinum, l'ouverture des données publiques et la promotion des logiciels libres…

1 jour ago

Pour son premier LLM codeur ouvert, Mistral AI choisit une architecture alternative

Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…

2 jours ago