Recherche

Les déploiements de cloud sur site passent par la cartographie des ressources physiques et virtuelles

La transformation numérique, sujet brulant s'il en est, ne peut réussir que si la rapidité de développement des applications est assurée. La vitesse de leur déploiement peut être par ailleurs un facteur de différenciation déterminant qui génère un avantage concurrentiel pour les entreprises - avantage grâce auquel l'informatique devient un centre de profit, et non plus un centre de coût.

Publié par le | Mis à jour le
Lecture
4 min
  • Imprimer
Les déploiements de cloud sur site passent par la cartographie des ressources physiques et virtuelles

Les ingénieurs en infrastructure de datacenter hybride n'ont pas le choix : soit ils arrivent à suivre la demande, soit ils mordent la poussière. Ils ont pour mission d'identifier les ressources nécessaires à chaque application, de configurer le matériel et de mettre en place des machines et des conteneurs virtuels.

Quelles sont les (bonnes) questions qu'ils doivent poser à leurs clients pour faire face à l'accroissement des demandes de développement :

1. Quelles sont les ressources disponibles pour déployer de nouvelles applications ?
Les ressources peuvent être réparties n'importe où dans le datacenter, et partout dans le monde. Comment s'assurer alors du suivi des ressources gérées et de leur utilisation ?

2. Comment les conditions actuelles se répercutent-elles sur les ressources existantes ?
Dans le cloud public comme dans les environnements sur site, les clients exigent un service. Or il n'est pas possible d'assurer la stabilité des services sans un matériel fiable. Est-on en mesure de surveiller tout le matériel qui est utilisé ? Sait-on comment les conditions actuelles affectent les services opérationnels ?

3. Comment puis-je utiliser la totalité de mes ressources pour maintenir la stabilité ?
Connaître l'impact des conditions actuelles sur l'infrastructure correspond à la première étape. La deuxième consiste à transférer les charges de travail de façon à pouvoir mettre à niveau ou reconfigurer l'infrastructure. Une infrastructure adaptée est-elle définie pour cette migration ?

L'ensemble des éléments techniques permettant de répondre à ces questions se cache derrière les services déployés pour un fournisseur cloud. Les propriétaires des applications souhaitent une invisibilité du même ordre lorsque ces services tournent sur site. Pour être à la hauteur de la demande à l'intérieur d'un environnement sur site, il est important d'offrir :

* Une infrastructure as a service - Un portail en libre-service pour identifier les besoins de l'application. L'ensemble des mécanismes derrière le service détermine les plateformes virtuelles nécessaires. Le service localise le matériel qui supporte la plateforme virtuelle. Le but est de fournir les ressources qui conviennent, au bon moment, pour répondre aux besoins de l'application.

* Une réaction immédiate en cas de changement dans l'infrastructure - Une gestion homogène de la maintenance de l'infrastructure sous-jacente, avec un minimum de répercussions sur les applications en service. Transférer des charges de travail sur des ressources adjacentes en modifiant les configurations.

* Une bonne gestion de la capacité et de l'usage - Il est nécessaire de savoir comment l'infrastructure existante est utilisée, mais sans s'arrêter là. Exploitez les informations dont vous disposez pour prévoir les utilisations futures. Réalisez des investissements stratégiques en fonction des tendances historiques afin d'utiliser au mieux l'infrastructure.

La prise en charge de cet environnement suppose une connaissance approfondie de l'infrastructure virtuelle déployée et de l'infrastructure physique qu'elle représente. Auparavant, le suivi des ressources physiques était effectué à l'aide de feuilles de calcul ou de pages Wiki.
Ces représentations statiques essayaient également de calquer les machines virtuelles sur le matériel. Les conséquences des pannes et de la maintenance matérielles ne pouvaient être déterminées qu'à partir d'extrapolations manuelles.
Dans le datacenter d'aujourd'hui, l'automatisation de ces extrapolations revêt une importance croissante. Ces données doivent ensuite être exploitées pour prendre des décisions éclairées et automatiser les opérations à travers les ressources gérées.

Un tableau de bord doté de jauges et de compteurs personnalisables permet d'obtenir le niveau d'information requis. Il fournit par exemple des données sur le déploiement de l'infrastructure virtuelle, l'état des ressources réseau et la disponibilité des serveurs physiques pour les déploiements sur site.
Le tableau de bord peut également servir de panneau de visualisation unique pour afficher des mesures et prendre des décisions concernant les demandes de déploiement, les services opérationnels et les migrations de service. Il permet également de puiser dans les énormes quantités de données disponibles pour en extraire des informations utiles, et ainsi d'exploiter pleinement les avantages des ressources gérées.

L'accélération du développement et du déploiement des applications requiert une gestion efficace des ressources. Les responsables doivent connaître la capacité et l'utilisation de l'ensemble de leurs ressources mondiales avec la même rapidité et la même flexibilité que les déploiements cloud.

Pour cela, ils doivent se servir des tableaux de bord de gestion disponibles, et s'appuyer sur les informations pour gérer les relations entre ressources virtuelles et physiques. Une utilisation efficace des données permet d'éviter les perturbations des services stratégiques et de connaître la disponibilité des ressources. Les opérateurs peuvent ainsi fournir une infrastructure as a service facile à consommer.

Ludovic Levé, DG France - Lenovo Data Center Group.

Livres Blancs

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page