Recherche

Red Hat France : la problématique VMware plus concrète que les LLM

Respectivement DG et CTO de Red Hat France, Rémy Mandon et David Szegedi évoquent le déploiement de la stratégie IA du groupe et sa gestion du dossier VMware.

Publié par Clément Bohic le | Mis à jour le
Lecture
5 min
  • Imprimer
Red Hat France : la problématique VMware plus concrète que les LLM

À quand l’intégration d’Ansible et de Terraform ? Chez Red Hat France, c’est un sujet sur lequel « on ne peut pas trop se prononcer », faute de transfert business pour le moment.

Rémy Mandon – Country manager de Red Hat France

Au niveau groupe, la stratégie est plus claire sur le volet intelligence artificielle. On lui a en tout cas associé un objectif chiffré : avoir, sous trois ans, des plates-formes « capables de monter à 50/50 ». En l’occurrence, d’accueillir autant d’applications traditionnelles que d’applications embarquant de l’IA. C’est le « fil directeur », selon Rémy Mandon, patron de Red Hat France depuis début 2024.

On ne part évidemment pas de zéro au sein de la base installée OpenShift. En particulier dans le secteur bancaire : une bonne partie des workloads des clients font du prédictif depuis longtemps, souligne le CTO David Szegedi.

David Szegedi – CTO Red Hat France

Avec la plate-forme OpenShift AI, récemment annoncée, Red Hat « s’adresse à une population […] qui doit sortir rapidement des prototypes et arrêter de jeter de l’argent sur des MVP avec des data scientists », pour reprendre les mots de Rémy Mandon.

De là à y voir un JBoss de l’IA, la logique est en tout cas la même : « une stack middleware avec des outils de développement et de lifecycle additionnés de composants best of breed ».

En l’état, Red Hat n’a « pas vraiment de choses déployées massivement » dans l’univers des LLM. À part dans l’industrie, où les use cases en production touchent principalement à la supply chain. « Les clients nous demandent surtout de ne pas jeter à la poubelle ce qu’ils ont fait sur le prédictif »…

Les LLM en remplacement des progiciels ?

L’éditeur revendique un « positionnement pragmatique ». Il en veut pour preuve, par exemple, le non-choix entre PyTorch et TensorFlow, qu’il propose tous deux.

Ce qui ne l’empêche pas de pousser sa propre approche à travers des briques comme InstructLab. Celle-ci se fonde sur une méthodologie développée avec IBM et le MIT : LAB (Large-Scale Alignment for ChatBots). Elle implique un processus taxonomique de génération de données synthétiques.

« On ne va pas se battre contre Gemini & Cie, reconnaît-on chez Red Hat France. Par contre, pour un usage de chatbot associé avec un RAG […], on a quelque chose de prêt à l’emploi. » En ligne de mire, notamment, des marchés que portent aujourd’hui des progiciels… dont les clients se demandent s’ils seraient en capacité de reproduire eux-mêmes les fonctions.

30 000 clusters pour alimenter Lightspeed

« Une partie de la stratégie, c’est les workloads des clients. Une autre partie, c’est l’IA dans nos outils », glisse David Szegedi. Cette intégration se fait sous la bannière Lightspeed. Initialement appliquée à Ansible pour la génération de code dans les playbooks, elle couvre désormais RHEL comme OpenShift. Et remplit une fonction d’assistance plus globale*. Avec toujours, sous le capot, des modèles que Red Hat a entraînés sur ses propres datasets. Sur 60 à 70 000 clusters OpenShift déployés, la moitié sont effectivement connectés en télémétrie.

Red Hat est « très Prometheus », mais prévoit de systématiser les connecteurs OpenTelemetry sur l’ensemble de sa gamme. « Au même titre qu’on a travaillé sur la partie policy avec OPA ou Gatekeeper, on cherche à prendre le pouls du marché en open source, à voir si on contribue ou pas », nous précise-t-on.

À l’heure actuelle, beaucoup de ses 320 développeurs en France (sur un effectif de 470 personnes) travaillent sur KubeVirt, le projet CNCF sous-jacent à OpenShift Virtualization. Les efforts se dirigent aussi sur la partie réseau (OVM, SR-IOV, DPDK…) : « On a de gros telcos en France ». Sur ce secteur, l’heure est à la transition vers les conteneurs. Donc d’OpenStack à Kubernetes. Une opportunité pour OpenShift, que Nokia a d’ailleurs adopté en remplacement de sa propre distribution.

VMware, « 40 % de notre activité en vente »

Des opportunités, il y en a aussi auprès des clients VMware. « Aujourd’hui, c’est 40 % de notre activité en vente », clame Rémy Mandon.

Red Hat France revendique des « projets de taille moyenne » passés en production en juin. Généralement, « la réponse n’est pas 100 % OpenShift Virtualization […] : c’est pour ça qu’on fait des partenariats avec des Dell, des Nutanix… ».

« Les clients qui migrent du VMware ont souvent du stockage traditionnel », nous explique-t-on, en mentionnant le cas d’un client au Moyen-Orient qui venait d’acheter… des PowerMax. Ça nous refait discuter avec [des fournisseurs] qui s’étaient un peu endormis sur l’intégration CSI. » L’intégration peut aussi se faire en mode plug-in. C’est le cas avec Cisco et Pure Storage, qui le masquent dans leur opérateur.

Concernant Ceph, le message est clair : « Ce n’est plus chez nous, mais chez IBM ». Red Hat a néanmoins une base installée, autant parce qu’il a utilisé historiquement cette technologie en OpenStack que parce qu’il l’a poussée sur OpenShift dans le cadre du projet Rook.

* Red Hat donne l’exemple du dépannage de serveurs SQL. En s’appuyant sur OpenShift AI, un modèle généraliste avec du RAG va interroger la KB Microsoft. Il va alors à la fois enrichir le cas support côté Jira/ServiceNow et générer un playbook de remédiation.

Illustration principale via Adobe Stock

Livres Blancs #bigdata

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page