Recherche

Le Serverless arrive à maturité technologique

Le Serverless, cette autre façon de concevoir et d’exécuter des applications dans le Cloud, a gagné en maturité et s’impose de plus en plus comme une évidence.

Publié par Alain Clapaud le | Mis à jour le
Lecture
5 min
  • Imprimer
Le Serverless arrive à maturité technologique

Quand Amazon Web Services a dévoilé Lambda en 2014, beaucoup ont vu dans ce service un moyen simple d’exécuter des scripts sans trop se soucier d’infrastructure.

De petit moteur d’exécution pour SysOps, le Serverless s’est transformé en un véritable écosystème de solutions. De multiples langages de programmation sont disponibles, y compris la possibilité d’exécuter un conteneur custom, de même que des couches de persistances, des bus de messages : toutes les briques indispensables à la création d’application de grande envergure.

Illustration de ce changement d’échelle, la décision récente d’Amazon Prime de basculer sa plateforme de streaming vidéo vers le Serverless.

Frédéric Barthelet, anciennement à la tête de la Serverless Tribe de Theodo commente cette décision : « Il y a quelques mois, l’équipe d’Amazon Prime annonçait que la migration du service sur AWS Lambda avait permis d’abaisser de 90% leurs coûts d’infrastructure. L’utilisation d’un framework très populaire, baptisé Serverless, montre qu’en mai 2023 il y a eu près de 5 millions de téléchargements de ce framework. Son alternative, l’AWS CDK connaît aussi une forte croissance, et un framework disruptif comme SST connaît une croissance exponentielle. »

Les services Serverless sont bien plus sophistiqués qu’ils ne l’étaient il y a 5 ans, et les utilisateurs disposent de moyens FinOps afin d’abaisser encore les coûts de fonctionnement de leurs infrastructures, notamment en optant pour les versions ARM de ces services ou des modes de stockage S3 plus abordables lorsque c’est possible.

AWS propose notamment des solutions afin de répondre à un défaut inhérent à l’approche Serverless : la latence induite par les « Cold Start », c’est-à-dire impose un délai de déploiement du conteneur d’exécution de la fonction au moment de sa toute première invocation.

Des alternatives aux offres des CSP

Si AWS, Microsoft avec Azure et Google offrent des services Serverless depuis des années, d’autres acteurs offrent des alternatives.

Ainsi, Cloudflare est positionné sur les services réseau service Zero Trust, services orientés applicatifs et services aux développeurs, dans lesquels l’éditeur propose des produits Serverless depuis 2018.

« Sur le Serverless, nous conservons 3 grands différentiateurs par rapport aux hyperscalers » argumente Stéphane Nouvellon, Architecte Solutions chez Cloudflare : « D’une part, il n’y a pas de notion de région sur Cloudflare : on ne lance pas un service sur une région comme l’Europe, par exemple. C’est notre travail de réaliser les réplications si l’entreprise est un acteur global. »

Fort de ses 290 datacenters, le fournisseur revendique un temps de latence inférieur à 50 ms auprès de 99% de la population mondiale connectée à Internet. Le responsable évoque aussi la forte intégration des services hébergés. « Il est très simple de faire communiquer nos services les uns avec les autres, sans complexité inutile et sans introduire de latences. »

Enfin, Stéphane Nouvellon estime faire la différence sur le cycle de vie de l’application :
« l’entreprise doit pouvoir intégrer l’application dans son écosystème logiciel, avec l’observabilité, les opérations, intégrer l’application dans les tableaux de bord de l’équipe SRI qui s’occupe de la disponibilité des services. »

Des offres et des méthodologies plus matures

Outre une offre du marché bien plus riche que par le passé, les architectures et méthodologies ont été affinées afin de porter des applications critiques.

C’est le cas de la poste néerlandaise qui traite de l’ordre de 1,2 million de colis par jour sur une infrastructure de type EDA (Event Driven Architecture). « Nous traitons littéralement des milliards d’événements par mois sur AWS et nous avons pu le faire en suivant les règles que nous avons réussi à mettre en place pour évoluer vers une architecture de type EDA » explique Luc Van Donkersgoed, Lead Engineer chez PostNL et AWS Serverless Hero .

« On commence avec quelques microservices interconnectés, optimisés de manière locale. Puis on ajoute d’autres services, d’autres nœuds, on échange différents types de données, on utilise différents types d’encodage, on met en œuvre d’autres langages : on finit par perdre toute structure globale. Il devient difficile d’investiguer sur les incidents de production, il devient difficile de modifier ou retirer un service et on finit par avoir du mal à évaluer tous les impacts d’un changement sur un microservice. »

Une approche qui a séduit les analystes de Forrester qui ont placé Cloudflare en tant que leader des solutions de développement Edge.

L’exploitation et la maintenance d’applications comptant des dizaines de microservices exécutés sur des infrastructures Serverless restent un véritable défi pour les équipes DevOps. Des solutions adaptées aux caractéristiques du Serverless sont en train d’apparaître.

C’est notamment le cas des approches « Infrastructure from code » dont l’idée est de générer l’infrastructure Serverless simplement en lisant le code source de l’application.
Il s’agit de fournir tant des capacités d’auto-provisioning, d’auto instrumentation, de génération automatique de la documentation, de self-testing et self-auditing, une administration et une optimisation automatique, une mise à jour automatique.

Plusieurs start-up se sont positionnées sur cette approche « Infrastructure from code » : Ampt et Nitric privilégient une approche SDK ; Model et Klotho poussent l’annotation du code tandis que Encore et Shuttle misent sur un panachage des deux approches quand Wing et Dark mises sur un nouveau langage spécialisé.

A lire en complément :

> Serverless : 8 tendances qui caractérisent son adoption
> Serverless : pourquoi faut-il migrer ses applications ?
> Multicloud : pourquoi il faut miser sur le serverless
> Serverless, l’éloge n’empêche pas la nuance

 

Sur le même thème

Voir tous les articles Cloud

Livres Blancs #cloud

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page