Xavier Pestel - Weborama : «?Nous faisons du Kubernetes au quotidien »
«?L'infrastructure DMP de la R&D de Weborama s'appuie sur deux fournisseurs cloud public, avec une dizaine de GKE sur Google Cloud , deux clusters Kubernetes et une centaine d'instances sur notre second cloud provider. Tous ces clusters sont managés par les cloud providers.
En parallèle, nous avons nos deux datacenters où nous disposons de plusieurs centaines de serveurs et VM, deux clusters Kubernetes sur un premier et un troisième cluster sur le second datacenter. Cela représente beaucoup de machines.
Avant Kubernetes, nous avions des machines virtuelles, des machines physiques, avec une part plus importante en datacenter. Nous étions dans une approche de type « Excel as a Service » avec un suivi manuel de nos applicatifs et nos services.
Ce fut le point de départ en 2018 d'une expérimentation de Kubernetes, avec une volonté d'éliminer au maximum les traitements manuels. Le premier volet de cette transformation est organisationnel. Lorsqu'on a plusieurs clusters Kubernetes situés dans différents cloud, il faut une grande rigueur.
Sur GCP, on fonctionne par projet, l'idée étant de créer un cluster pour chacun d'entre eux et disposer de notre stack de monitoring complète pour collecter les métriques avant de les centraliser.
L'approche est la même chez notre autre fournisseur cloud avec du Kubernetes managé. Nous appliquons ce même principe dans nos datacenters. L'ensemble de ces clusters sont répartis sur deux environnements différents.
La règle, c'est que lorsqu'on veut déployer des applications qui ont besoin de monitoring comme des clusters Couchbase ou Redis ou MySQL, on les exporte dans Kubernetes. Les déploiements des clusters sont menés en Terraform pour le volet cloud et Salt/Kubadm sur nos datacenters.
Pour les applicatifs, c'est du mode « gitops » pour combiner Flux et Helm et disposer d'un déploiement totalement automatisé. Le bilan, c'est que nous faisons maintenant du Kubernetes au quotidien. L'autoscaling et l'autoguérison règlent certains problèmes et ont permis de réduire les volumes d'astreintes, mais peuvent poser d'autres problématiques à traiter sur le long terme.
Lire aussi : Heroku devient un PaaS Kubernetes
Nous avons résolu notre problématique d'homogénéisation de services, avec des déploiements facilités avec le passage au GitOps. Nous avons automatisé notre monitoring. Et l'ensemble des services sont autodécouverts à l'échelle de tout le parc grâce à consul (dans ou hors Kubernetes).?»
Propos recueillis par Alain Clapaud
Pour aller plus loin :
> Migrer ses applications dans le cloud : quelle méthode choisir ?
> Retex : pourquoi la Cnav développe son cloud privé
-
Sur le même thème
Voir tous les articles Cloud