Pour gérer vos consentements :
Categories: Cloud

AWS Auto Scaling : le dimensionnement unifié des apps dans le cloud

L’évolution d’AWS Auto Scaling devrait attirer l’attention des équipes de développeurs.

Dorénavant, sur la plateforme cloud, elles peuvent configurer la mise à l’échelle automatique sur un ensemble de fonctionnalités d’Amazon Web Services mises en place pour un bouquet d’apps dans le cloud depuis une seule interface fédératrice.

La mise à l’échelle automatique s’effectue en effet via un navigateur Internet ou la ligne de commande.

Traditionnellement, la fonction Auto Scaling permet de maintenir la disponibilité d’une application et d’augmenter ou diminuer « dynamiquement et automatiquement » la capacité de calcul (Amazon EC2).

AWS AutoScaling se traduit par un ensemble d’options de mise à l’échelle automatique. Il offre un moyen d’équilibrer les coûts et les dimensionnements.

Concrètement, lorsqu’un seuil de mise à l’échelle donné sera programmé, AWS AutoScaling va créer un ensemble de stratégies de mise à l’échelle.

« Vous n’avez plus besoin de configurer des alertes et des actions de mise à l’échelle pour chaque ressource et chaque service », décrit Jeff Barr, Chief Evangelist pour AWS, dans un billet de blog.

« Au lieu de cela, vous pointez simplement AWS Auto Scaling sur votre application et sélectionnez les services et ressources d’intérêt. Ensuite, vous sélectionnez l’option de mise à l’échelle souhaitée pour chacun, et AWS AutoScaling fera le reste, vous aidant à découvrir les ressources évolutives et ensuite à établir un plan de mise à l’échelle en fonction de vos ressources de prédilection. »

Cette nouvelle fonctionnalité est disponible immédiatement dans certaines zones géographiques aux Etats-Unis mais aussi l’Irlande et Singapour (zone Asie-Pacifique).

Ce type de fonction « autoscaling » est pratique pour la gestion des ressources cloud exploitées est mise en place par l’ensemble des grands acteurs du marché.

Microsoft l’avait inséré sur Azure à  partir de juin 2013. Google a suivi en novembre 2014 en l’adaptant à Google Compute Engine en mode bêta public.

Recent Posts

Pour son premier LLM codeur ouvert, Mistral AI choisit une architecture alternative

Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…

20 heures ago

Microsoft x Inflection AI : l’autorité de la concurrence britannique lance son enquête

L’Autorité de la concurrence et des marchés (CMA) britannique ouvre une enquête sur les conditions…

22 heures ago

Thomas Gourand, nouveau Directeur Général de Snowflake en France

Thomas Gourand est nommé Directeur Général pour la France. Il est chargé du développement de…

24 heures ago

Accord Microsoft-CISPE : comment Google a tenté la dissuasion

Pour dissuader le CISPE d'un accord avec Microsoft, Google aurait mis près de 500 M€…

1 jour ago

Vers des mises à jour cumulatives intermédiaires pour Windows

Pour réduire la taille des mises à jour de Windows, Microsoft va mettre en place…

1 jour ago

RH, finances, stratégie… Les complexités de la Dinum

De l'organisation administrative à la construction budgétaire, la Cour des comptes pointe le fonctionnement complexe…

2 jours ago