Pour gérer vos consentements :

GenAI : les alternatives à l'assaut des LLM OpenAI

Publié par Alain Clapaud le | Mis à jour le

OpenAI a démocratisé l’IA générative au niveau mondial en quelques mois, avec ChatGPT. Mais s’il dispose toujours d’une longueur d’avance sur le reste du marché, de solides alternatives émergent.

Selon les chiffres de Sopra Steria Next, le marché des solutions d’IA générative va passer de 8 milliards $ en 2023 à 100 milliards $ dès 2028. Dans l’Hexagone, les entreprises françaises ont dépensé 352 millions $ en 2023 et ce montant devrait doubler en 2024 indique le  » Generative AI Radar 2023  » élaboré par Infosys,

OpenAI s’est imposé comme le leader de ce marché. Allié à Microsoft, la startup  poursuit sa course en avant vers des LLM (Large Language Models) de plus en plus gigantesques et progresse sur l’exploitation de ses modèles GPT sur des cas d’usage très concrets.

Microsoft embarque GPT dans ses Copilot pour Microsoft 365, Power Platform, Dynamics 365 et bien entendu Github.

OpenAI vient d’ouvrir un GPT Store où ses partenaires pourront publier des GPTs, de petites applications qui vont répondre à cas d’usages plus ou moins spécialisés.

Markus Geier, Associé de Twelve Consulting © DR

La facilité d’accès à l’IA générative apportée par ChatGPT a permis à de nombreuses grandes entreprises de se lancer dans l’aventure de la GenAI, comme Schneider Electric, Veolia, Suez ou encore L’Oréal, mais aussi des entreprises plus modestes.

Ainsi Twelve Consulting, un cabinet de conseil d’une centaine de personnes à lancé son TwelveGPT très rapidement. « Dès juin 2023, nous avons réfléchi à utiliser l’IA générative pour créer de la valeur pour nos clients et revoir le métier de consultant » confie Markus Geier, Associé de Twelve Consulting.

« Nous ne voulons pas attendre que la GenAI nous tombe dessus et anticiper. Nous avons mené différentes expérimentations et nous avons mis en place une instance ChatGPT à destination de nos collaborateurs dans le respect de nos normes de sécurité. Nous avons ensuite étudié d’autres cas d’usages et notamment chargé une soixantaine de pdf relatifs à nos pratiques internes et qui contiennent notre savoir-faire. Cette approche assez simple nous a déjà permis d’obtenir des résultats extrêmement satisfaisants. » détaille-t-il.

LLM personnalisés et Open Source

Outre cette grande accessibilité à son offre, OpenAI a multiplié les annonces à destination des entreprises, avec un ChatGPT Enterprise qui doit offrir la sécurité et la confidentialité réclamées par le marché pro.

En outre, à l’image de McKinsey ou de Bloomberg qui ont entraîné leur propre ChatGPT sur des données internes, les grandes entreprises peuvent désormais entraîner leur propre modèle en s’appuyant sur les LLM d’OpenAI.

EDF mise sur les jumeaux numériques

Le déploiement du socle PLM d’EDF a été cadencé en fonction des projets en cours. Le volet construction est issu des besoins de la centrale d’Hinkley Point au Royaume-Uni.

Depuis 2018, EDF a lancé Switch, un vaste programme de transformation numérique de son ingénierie avec Dassault Systèmes et Capgemini.

En 2022, l’énergéticien a franchi une nouvelle étape avec la mise en production de la plateforme sur laquelle repose le futur du parc nucléaire français.

« Ce programme de transformation vise à faire évoluer nos méthodes de travail afin de maîtriser ces grands projets et mettre en place une capacité de gérer des jumeaux numériques et les millions de données qu’ils agrègent. » précise Bruno Lièvre, directeur de la transformation numérique de l’ingénierie nucléaire d’EDF.

Le défi est de taille car un jumeau numérique doit accompagner la centrale lors de toute sa durée de vie. De 40 à 60 ans pour un cycle complet de conception/construction/exploitation et un démantèlement qui va s’étendre sur un siècle !

Le Product Lifecycle Management (PLM) est au cœur d’un système d’information d’ingénierie des systèmes complexes. Suite à un appel d’offres, EDF a fait le choix de la plateforme 3DExperience de Dassault Systèmes.

La plateforme va s’ouvrir aux partenaires d’EDF. Initiée avec General Electric, la démarche va être étendue à l’ensemble des contractants.

Avec le programme « Custom Models », les ingénieurs d’OpenAI vont travailler avec les Data Scientists de l’entreprise afin de créer un modèle personnalisé. Sam Altman a promis que l’entreprise cliente pourra intervenir à chaque étape du process d’entraînement du modèle, mais il a prévenu : peu d’entreprises pourront bénéficier de ce programme et celui-ci allait être très coûteux...

Pour l’heure, beaucoup de grandes entreprises, y compris françaises, préfèrent s’appuyer sur GPT via le tenant Azure. Un moyen d’offrir un accès à ChatGPT tout en gardant une certaine maîtrise de la sécurité de leurs données.

Si en ce début d’année 2024 OpenAI fait clairement la course en tête, le marché de la GenAI  se structure.  Et des alternatives vont nécessairement monter en puissance. On assiste à une course entre les LLM les plus connus comme les GPT d’OpenAI, Bard de Google ou Claude 2 d’Anthropic au plus grand nombre de paramètres.

Or, si on consulte le classement des LLM publié par Hugging Face, on ne peut que constater l’explosion cambrienne des IA génératives Open Source. Ce sont ainsi des centaines de modèles construits sur Llama, et certains LLM du français Mistral qui sont accessibles sous diverses licences libres.

Stéphane Roder, PDG d’AI Builders : « Il faut démarrer avec le leader du marché »

« Lorsqu’on ne maîtrise pas encore un nouveau domaine, une nouvelle technologie, il faut se tourner vers le meilleur. Opter pour une offre alternative, c’est empiler les contraintes. Il faut commencer avec le leader éventuellement sur un périmètre restreint afin de monter en compétences, puis dans un deuxième temps traiter les contraintes de souveraineté, de confidentialité et de performance auprès d’autres acteurs et il y a déjà beaucoup de LLM sur le marché.
La réserve liée à la confidentialité des données confiées à OpenAI est née d’un quiproquo. Les utilisateurs ont commencé par utiliser le service Cloud public de ChatGPT afin de le tester, mais aujourd’hui les entreprises ont compris qu’il faut utiliser ChatGPT en mode privé, avec la garantie que les données ne seront pas. »

Exploiter la diversité des LLM

« Comme dans tous les domaines, il est important de ne pas mettre tous ses œufs dans le même panier » rappelle Hector Basset, ingénieur IA chez Ippon Technologies. « OpenAI propose aujourd’hui les LLM certainement les plus performants pour ce qui est de la génération de texte. Mais il est clair que cet avantage va se réduire dans le temps. Qu’il s’agisse de Google, de Mistral,  de nombreux autres éditeurs proposent des LLM performants. Pour une entreprise ou un service de l’Etat qui se soucie de la souveraineté de ses Data et de ces infrastructures, Mistral peut apparaître comme une solution très pertinente. »

Cependant, si l’expert pointe le coût d’hébergement de tels modèles, il souligne que l’essor des modèles d’IA Generative reste récent. « Les LLM vont encore évoluer, s’améliorer et seront de plus en plus efficaces et des améliorations majeures en termes de performance/taille sont à attendre dans les prochains mois et les prochaines années. » précise-t-il.

Didier Girard, Vice-President Engineering de SFEIR © DR

Pour Didier Girard, Vice-President Engineering de SFEIR, il est désormais temps d’exploiter cette diversité et de quitter une approche 100% centrée sur ChatGPT. Il préconise une approche de type plateforme où l'on trouve  divers LLM. Au choix des modèles Open Source hébergés en interne ou dans le Cloud, mais aussi des LLM accédés via leurs API.

Pour l’expert, ces plateformes doivent répondre à plusieurs critères  : « Une plateforme de GenAI doit s’appuyer sur des technologies MACH : Microservices, API, être Cloud native et Headless, c’est-à-dire pouvoir fonctionner sans interface utilisateur. Il faut aussi des développeurs front office très pointus car la qualité perçue d’une IA générative est souvent jugée au travers de son Interface Homme-Machine ( IHM). »

Didier Girard prend exemple de Perplexity dont l’IHM est particulièrement adapté au contexte entreprise. « En affichant en haut de l’écran la liste des sources de données à partir desquelles l’IA a bâti sa réponse, l’interface apporte aux utilisateurs la confiance dans les réponses délivrées. »
Dans un contexte professionnel, l’utilisateur peut consulter les documents associés à une réponse et rapidement décider si celle-ci est correcte ou pas.

Enfin, autre recommandation : privilégier les solutions managées. Mettre en place sa propre plateforme GenAI demande une certaine expertise et si les entreprises les plus avancées comme Veolia par exemple ont pu obtenir des résultats extrêmement probants en s’appuyant sur la solution Open Source LangChain.

Cela implique d’investir et de monter en compétence sur des technologies relativement complexes. Or de véritables plateformes GenAI en mode managé sont apparues récemment sur le marché, des plateformes qui donnent accès aux LLM sous forme de « modèles fondation » et sur lesquels l’entreprise va pouvoir créer ses cas d’usage.

LLM : les plus performants pour le Chat

Modèle Editeur Licence
GPT 4 Turbo OpenAI Propriétaire
GPT 4-0314 OpenAI Propriétaire
GPT-4-0613 OpenAI Propriétaire
Claude-1 Anthropic Propriétaire
Mistral Medium Mistral AI Propriétaire
Claude-2.0 Anthropic Propriétaire
Mixtral-8x7b-Instruct Mistral AI Apache 2.0
Gemini Pro (Dev) Google Propriétaire
Yi-34B-Chat 01 01 AI Licence Yi
Claude-Instant-1 Anthropic Propriétaire

 Source : Extrait du classement « LMSYS Chatbot Arena Leaderboard », Hugging Face

Les CSP en première ligne sur la GenAI

IBM a ainsi dévoilé en mai 2023 sa plateforme Watsonx qui se compose d’une brique watsonx.ai où le concepteur va avoir accès à divers modèles fondation (dont les modèles Granite d’IBM), Watsonx.data pour faire le lien avec les données d’entreprise et Watsonx.gouvernance pour gérer le cycle de vie des modèles.

Xavier Vasques, CTO IBM Technology et R&D en France © DR

Xavier Vasques, Vice President et CTO d’IBM Technology et R&D en France explique son positionnement : « Nous proposons aux entreprises de déployer leurs modèles où elles le souhaitent : en on-premise, dans un Cloud privé ou dans le Cloud public. Notre positionnement sur le Cloud hybride remonte à l’acquisition de Red Hat et aujourd’hui avec OpenShift, on peut déployer ces workloads d’IA générative où on le souhaite. »

Tous les fournisseurs Cloud majeurs se sont bien évidemment positionnés très rapidement. C’est le cas d’AWS avec Amazon Bedrock, d’Azure ou encore d’OVHCloud qui prépare le lancement de son nouveau service AI App Builder. Cet outil permet d’exploiter des modèles fondation comme Mistral ou LLama, les contextualiser avec un dataset de l’entreprise et offrir aux utilisateurs et applications d’entreprise l’accès aux LLM et du RAG via des API.

Yaniv Fdida, Chief Product Officer chez OVHcloud détaille cette nouvelle offre : « Ce produit sera au cœur de notre Data Platform pour personnaliser des modèles pré-entraînés, et ainsi exploiter la puissance de ces modèles pour construire et déployer des applications ou des chatbots optimisés en s’appuyant sur l’IA générative. »

Yaniv Fdida, Chief Product Officer chez OVHcloud © DR

Créer un RAG se réalise en quelques clics, quelques étapes où l’utilisateur choisit son LLM, télécharger les documents d’un dépôt Git, d’un bucket ou désigner des tables d’une base de données. Une base vectorielle VectorDB est instanciée puis l’assistant est automatiquement déployé sur l’architecture OVHcloud.

Outre l’accès à plusieurs LLM, l’énorme intérêt de ce type d’approche est de packager les modèles et les cas d’usage. Alors qu’il y a quelques mois créer un RAG par exemple demandait de solides connaissances en ingénierie et la maîtrise de solutions telles que LangServer est aujourd’hui faisable en quelques clics. Cette approche va nécessairement participer à la montée en puissance des applications de l’IA générative dans les entreprises et une démocratisation de l’accès à ces technologies dans de nombreux cas d’usage.

Laurent Daudet, directeur général de LightOn

Rechercher le meilleur compromis coût/performances

« Nous poussons pour des modèles à 40 milliards de paramètres, ce qui correspond à la taille de notre modèle Alfred. C’est actuellement le meilleur compromis entre la puissance du modèle, avec une performance comparable à celle d’un GPT 3.5 Instruct par exemple, et leurs capacités. Lorsqu’on dépasse le 100 milliards de paramètres, les modèles deviennent très lourds à déployer, très lents en termes de temps de réponse et très coûteux en termes d’infrastructure de production et d’empreinte carbone. Nous recherchons avant tout le meilleur compromis entre la performance et le coût, car on n’a pas toujours besoin du modèle le plus gros pour traiter de nombreux cas d’usage. »

 

 

 

 

 

 

La rédaction vous recommande