Pour gérer vos consentements :
Categories: Cloud

Xavier Pestel – Weborama : « Nous faisons du Kubernetes au quotidien »

« L’infrastructure DMP de la R&D de Weborama s’appuie sur deux fournisseurs cloud public, avec une dizaine de GKE sur Google Cloud , deux clusters Kubernetes et une centaine d’instances sur notre second cloud provider. Tous ces clusters sont managés par les cloud providers.

Xavier Pestel – Lead SRE chez Weborama

En parallèle, nous avons nos deux datacenters où nous disposons de plusieurs centaines de serveurs et VM, deux clusters Kubernetes sur un premier et un troisième cluster sur le second datacenter. Cela représente beaucoup de machines.

Avant Kubernetes, nous avions des machines virtuelles, des machines physiques, avec une part plus importante en datacenter. Nous étions dans une approche de type « Excel as a Service » avec un suivi manuel de nos applicatifs et nos services.

Ce fut le point de départ en 2018 d’une expérimentation de Kubernetes, avec une volonté d’éliminer au maximum les traitements manuels. Le premier volet de cette transformation est organisationnel. Lorsqu’on a plusieurs clusters Kubernetes situés dans différents cloud, il faut une grande rigueur.

Sur GCP, on fonctionne par projet, l’idée étant de créer un cluster pour chacun d’entre eux et disposer de notre stack de monitoring complète pour collecter les métriques avant de les centraliser.

L’approche est la même chez notre autre fournisseur cloud avec du Kubernetes managé. Nous appliquons ce même principe dans nos datacenters. L’ensemble de ces clusters sont répartis sur deux environnements différents.

La règle, c’est que lorsqu’on veut déployer des applications qui ont besoin de monitoring comme des clusters Couchbase ou Redis ou MySQL, on les exporte dans Kubernetes. Les déploiements des clusters sont menés en Terraform pour le volet cloud et Salt/Kubadm sur nos datacenters.

Pour les applicatifs, c’est du mode « gitops » pour combiner Flux et Helm et disposer d’un déploiement totalement automatisé. Le bilan, c’est que nous faisons maintenant du Kubernetes au quotidien. L’autoscaling et l’autoguérison règlent certains problèmes et ont permis de réduire les volumes d’astreintes, mais peuvent poser d’autres problématiques à traiter sur le long terme.

Nous avons résolu notre problématique d’homogénéisation de services, avec des déploiements facilités avec le passage au GitOps. Nous avons automatisé notre monitoring. Et l’ensemble des services sont autodécouverts à l’échelle de tout le parc grâce à consul (dans ou hors Kubernetes). »

Propos recueillis par Alain Clapaud

Pour aller plus loin :
> Migrer ses applications dans le cloud : quelle méthode choisir ?
> Retex : pourquoi la Cnav développe son cloud privé

Recent Posts

IA générative : l’Autorité de la concurrence pointe de sérieux risques

Dans un avis consultatif, l'Autorité de la concurrence a identifié les risques concurrentiels liés à…

2 jours ago

OpenAI signe un accord de contenu avec Time

OpenAI signe un « partenariat de contenu stratégique » avec Time pour accéder au contenu…

2 jours ago

Atos : David Layani (Onepoint) veut sortir du capital

Au lendemain du rejet de sa proposition de restructuration, David Layani annonce sa démission du…

2 jours ago

Évaluer les LLM, un défi : le cas Hugging Face

Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en…

3 jours ago

Mozilla face au dilemme de la GenAI dans Firefox

Mozilla commence à expérimenter divers LLM dans Firefox, en parallèle d'autres initiatives axées sur l'intégration…

3 jours ago

VMware tente d’orienter vers VCF les déploiements pré-Broadcom

VMware met VCF à jour pour y favoriser la migration des déploiements qui, sur le…

4 jours ago