Recherche

Quelles architectures pour les datacenters de demain ?

Dans les datacenters aujourd'hui, les serveurs banalisés se sont imposés. Mais, pour l'architecte Cloud Guillaume Plouin, l'histoire ne s'arrête pas là, les géants du Cloud étant en train d'écrire le futur des centres de données.

Publié par le | Mis à jour le
Lecture
4 min
  • Imprimer
Quelles architectures pour les datacenters de demain ?

Il y a quelques années, j'ai eu l'occasion de visiter le centre de calcul de Météo France à Toulouse, et d'apercevoir un Cray qui servait à faire les prévisions à la fin du 20e siècle. C'était une machine monolithique circulaire, assez "design". Tout le câblage était géré au centre du cylindre, les composants baignaient dans un liquide de refroidissement. Depuis, Météo France est passé, comme les géants du Web, au "commodity hardware", une approche moins esthétique, mais plus économique. A l'heure où l'on s'interroge sur l'efficacité des datacenters, de nouvelles options émergent..

Les datacenters des opérateurs Cloud

Les opérateurs Cloud et les géants du Web constituent l'avant-garde des datacenters de demain. Google (entre 1 et 2 millions de serveurs), Microsoft (plus d'un million de serveurs), Facebook (créateur d'Open Compute) ont les projets les plus innovants. Ils ont depuis longtemps reporté la résilience du matériel, devenu "commodity hardware", vers le logiciel de contrôle du datacenter (lire aussi « Le faux départ du Cloud souverain »)

Ils construisent leurs serveurs sur mesure. Google communique sur la migration des processeurs de x86 vers ARM. OVH (220 000 serveurs) met en avant le SSD pour les disques.

Pendant un temps, Google et Microsoft ont communiqué sur des conteneurs comprenant 2 à 3 000 serveurs, dont la maintenance démarrait lorsque la plupart des serveurs étaient hors service. Cette approche coûteuse semble démodée : on préfère rendre les serveurs accessibles. Peut être verrons-nous un jour les robots Kiva d'Amazon, aujourd'hui gestionnaires d'entrepôts, changer aussi les serveurs ?

Les expérimentations des géants du Web portent sur le refroidissement. Facebook a construit un datacenter à Lulea en Suède en raison des températures très basses permettant de réduire le coût énergétique du refroidissement. Google à Hamina, en Finlande, utilise de l'eau de mer pour son refroidissement. Microsoft communique sur Natick, un projet de datacenter sous-marin, proche des côtes, qui revient sur le modèle du conteneur difficile à maintenir..

Dans la logique d'Open Compute, on voit émerger des modules OpenHardware sur étagère. Le RuggedPOD, par exemple, pourrait être le Rasberry Py ou le Arduino du datacenter. Il s'agit d'un cube de 50 cm de coté, destiné à être posé en extérieur, sur le sol ou sur un toit.

Les datacenters des entreprises utilisatrices

Plusieurs options s'offrent aujourd'hui aux entreprises utilisatrices. Je choisis d'en distinguer 3 :

  • Le datacenter sous forme d'appliance propriétaire, Cloud in a box, ou infrastructure convergée. avec des offres comme celles de Vblock, IBM CloudBurst, Oracle Exalogic, Microsoft Cloud Platform System, etc.
  • Le datacenter bâti sur mesure avec les offres de VMware/EMC, Microsoft, HP, Dell, etc.
  • Le datacenter bâti sur base d'architecture ouverte (Open Compute).

Dans l'écosystème où j'évolue, j'observe peu d'appétence pour les appliances Cloud. Il semble que les DSI préfèrent bâtir leur Cloud privé selon leurs propres plans et architectures, une approche que l'on peut interroger du fait de son coût.

J'observe par contre, un début d'intérêt pour Open Compute. L'approche OpenHardware me semble intéressante pour permettre aux entreprises la construction d'un datacenter sur technologies ouvertes, à moindre coût.

J'ai l'espoir que les géants du Web publient de plus en plus d'éléments de leur architecture en mode Open Source / OpenHardware, ce qui serait très profitable aux entreprises utilisatrices. Ces dernières pourraient utiliser principalement des appliances ressemblant au RuggedPOD.

Rappelons cependant que peu de cas d'usages justifient réellement le recours à un Cloud privé : je pense que dans 90% des cas, les entreprises devraient se tourner vers le Cloud public (lire « Le Cloud privé est-il une escroquerie ?« ).

Par Guillaume Plouin, architecte Cloud, et auteur de "Sécurité, gouvernance du SI hybride et panorama du marché" (4e édition) et de "Tout sur le Cloud Personnel" chez Dunod. Guillaume Plouin anime également un site Web personnel.

A lire aussi, ses précédentes tribunes :

L'émergence du SaaS pour la conception et le design

Pannes de Cloud : mes données sont-elles en sécurité ?

Cloud et PME : anatomie d'un paradoxe

Crédit photo : Google

Sur le même thème

Voir tous les articles Cloud

Livres Blancs #cloud

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page