Recherche

Quelques éléments sur l'offre GenAI qu'Orange Business monte avec LightOn

Orange Business s’appuie sur un LLM made in LightOn pour alimenter un « ChatGPT d’entreprise ». Voici quelques éléments à son sujet.

Publié par Clément Bohic le - mis à jour à
Lecture
3 min
  • Imprimer
Quelques éléments sur l'offre GenAI qu'Orange Business monte avec LightOn

Combien ça coûte ? « Un certain prix par mois »… En l’état, Orange Business n’en dit pas plus quant à la tarification de l’offre GenAI qu’il vient d’annoncer en partenariat avec LightOn.

À défaut, voici quelques autres éléments.

En quoi consiste cette solution SaaS ?

Elle donne accès à une interface « à la ChatGPT ». L’UI peut varier en fonction des métiers. LightOn fournit le LLM, qui tourne sur des GPU NVIDIA H100 et L40S localisés dans des datacenters Orange Business en France.

Quel est ce LLM ?

Il s’agit d’Alfred, un modèle open source à 40 milliards de paramètres découlant de l’ajustement de Falcon-40B par RLHF (renforcement par feed-back humain), puis du surentraînement sur un mélange de données publiques et de données étiquetées par LightOn.

LightOn traite et produit exclusivement du texte. Sa première version (Alfred-40B-0723) fut publiée à l’été 2023. Une deuxième (Alfred-40B-1023) arriva en novembre. Au menu, un contexte élargi à 8k, davantage de capacités sur la conversation avec des documents et une « conscience accrue » (aptitude à reconnaître ignorer des réponses).

LightOn maintient, dans le cadre de son offre Paradigm, une version affinée d’Alfred, plus avancée que le modèle open source.

Peut-on « personnaliser » Alfred ?

L’offre d’Orange Business permet d’intégrer des bases documentaires pour la génération augmentée de récupération (RAG). Autre option : la connexion à des bases par API. En fonction des usages, on peut envisager un ajustement du modèle (finetuning).

Dans le cas où on l’alimente ainsi de documents, Alfred cite ses sources et surligne les passages pertinents.

Est-ce vraiment une offre « clés en main » ?

Orange Business emploie l’expression. Reste qu’en fonction des use cases, il pourra être nécessaire de recourir à des services professionnels. La connexion de bases à l’API du LLM entre dans ce cadre. Comme la formation et l’idéation, à travers la Digital Service School.

En parallèle de ce SaaS, Orange Business donne accès à des serveurs GPU (matériel HPE + cartes H100) dans ses datacenters de Chartres et Val-de-Reuil, sur son infrastructure VMware.

À consulter en complément :

IA générative : 7 entrepreneurs français qui vont faire 2024
GenAI : comment choisir une solution « prête à l’emploi »
Yann Le Cun – Meta AI : « Le futur de l’IA n’est pas dans les LLM mais dans l’IA guidée par les objectifs »
LLaMandement : qu’est-ce que ce LLM made in Bercy ?

Illustration principale © Arthur Chazallet

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs #cloud

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page