Datacentres 2013 : argent, logiciels et rack désagrégé
En direct de Nice - Où en sont les technologies de datacenter aujourd'hui ? Derrière l'enthousiasme qui domine la nouvelle édition de Datacentres Europe 2013 se cachent des équipements, des outils, des solutions, et des budgets importants.
La désagrégation du rack
Il y en tout les cas un point auquel tous les acteurs du datacenter adhèrent : la désagrégation du rack. Cette approche sépare le processeur, la mémoire, les I/O (entrées/sorties) en sous systèmes modulaires qui communiquent en réseau optique sur les siliciums photonics.
Cette approche s'appuie également sur l'émergence du Software-defined Data Center (SDDC), à ne pas confondre avec le DCIM (Data Center Infrastructure Management), la gestion du datacenter qui a pris son envol en 2012 et qui continue d'attirer l'attention. Le SDDC est un accélérateur de l'adoption des technologies, comme les serveurs ARM, qui complexifient l'infrastructure mais auxquelles la virtualisation par un hyperviseur de la couche matérielle tend finalement à simplifier.
L'élasticité et la verticalité
L'élasticité apportée au datacenter par ces solutions logicielles est donc indispensable pour le futur. Elle prend déjà en compte la variabilité de la fourniture énergétique et du refroidissement, ainsi que le compute (ressources processeurs) à la demande et l'allocation dynamique des ressources. Sans oublier qu'elle participe à l'élasticité du cloud.
Concrètement, cela se traduit par exemple chez HP sur la conception de serveurs qui désormais sont construits à partir des attentes des métiers pour supporter des solutions, et non plus de construire des serveurs génériques auxquels s'adaptent les éditeurs. Ajoutons à cela les architectures unifiées, et les constructeurs vont nous proposer des stacks matérielles, logicielles et services complètes. L'équipementier du datacenter devient adepte de la verticalité !
L'argent, le nerf de la guerre !
Petit bémol dans cette ambiance optimiste, « tout est à ramener à l'argent », concède Peter Gross, vice-président Mission Critical Systems de Bloom Energy. L'évolution des besoins, la concentration des attentes, la densité des équipements, les règles et usages, tout milite à faire sérieusement progresser le prix du datacenter. A minima 45 à 50 millions d'euros avons-nous entendu plusieurs fois !
« Nous devons ré-évaluer nos objectifs ». Avant cela, deux tendances émergent : la consolidation des serveurs et des datacenters, qui pourrait s'engager sérieusement dès 2014, en tout cas pour les grands acteurs. Et la progression de la co-location, réponse économique à la question du coût initial versus le TCO.
Un outil pour le DSI
Avec le cloud, quelque soit sa forme - privé, public ou hybride - le DSI s'impose désormais comme un 'broker' de services IT. Afin de s'adapter à cette nouvelle réalité, il doit définir de nouvelles priorité pour son/ses datacenter(s) : flexibilité, scalabilité et rapidité. A l'opérateur du datacenter de trouver un équilibre entre les moyens dont il dispose pour tenter de suivre l'avancée des technologies, et les attentes des DSI qui cependant demeurent prudents, ce qui ne semble pas si simple. « Adopter l'innovation mais sans les risques, commente Peter Gross, optimiser le ratio entre fiabilité et coût. »
Il est deux points très liés, en tout cas, vers lesquels tous les regards convergent : l'efficacité énergétique et le refroidissement, le power et le cooling. Deux domaines qui n'ont pas fini de nous surprendre par la vitalité des projets innovants qui s'annoncent, même si le secret s'impose. Deux exemples : la fabrication locale d'énergie (on site generation) par le gaz et le recyclage des batteries pour stocker l'électricité.
Retrouvez la couverture de l'événement Datacentres Europe 2013 depuis cette page.
Découvrez les datacenters de Google, en images
Sur le même thème
Voir tous les articles Cloud