Recherche

Attention aux idées reçues sur l’IA générative en entreprise !

ChatGPT a été ces derniers mois un formidable outil de démocratisation de l’IA. Tout le monde a échangé avec ce bot et s’est forgé une opinion sur l’IA générative. Attention, c’est un monde qui évolue encore très rapidement et tout peut changer très vite !

Publié par le - mis à jour à
Lecture
6 min
  • Imprimer
Attention aux idées reçues sur l’IA générative en entreprise !

Lancé le 30 novembre 2022, à la surprise de tous les experts, ChatGPT s’est très rapidement imposé comme le sujet de discussion numéro 1 à la pause café… et aussi dans les réunions du ComEx. Débordées par les usages incontrôlés de ChatGPT en interne, mais attentives aux nombreux cas d’usages qu’allaient permettre cette technologie, bon nombre d’entreprises ont rapidement embrayé et se sont dotées de plateformes « corporate » un peu plus cadrées.

Beaucoup sont parties sur l’offre Microsoft Azure OpenAI Service pour aller au plus vite et mettre à disposition un ChatGPT privé à leurs collaborateurs rapidement.

Mais attention, l’IA générative ne se limite pas à ChatGPT et son concepteur OpenAI, loin de là. AWS, Google, Meta ont rapidement fournit leur propres modèles LLM (Large Language Model), le cœur d’une solution d’IA générative. Les entreprises doivent aujourd’hui s’intéresser à ces alternatives afin de ne pas créer une dépendance trop forte à OpenAI ! Il existe même des solutions souveraines et Open Source à l’image des LLM du français Mistral.AI qui obtiennent des performances extrêmement intéressantes.

De même, lorsqu’on pense IA, on imagine des datacenters géants avec une puissance de traitement considérable pour pouvoir les faire fonctionner. Ce n’est qu’en partie vrai. S’il faut beaucoup de temps et de ressources informatiques pour réaliser l’entraînement d’un LLM, c’est-à-dire lui apprendre à dialoguer en langage naturel avec l’utilisateur, il en faut beaucoup moins pour le spécialiser dans un domaine.

De même, s’il s’adresse à un nombre limité d’utilisateurs, le modèle va demander moins de ressources à l’exécution. Il est techniquement possible de déployer un LLM sur les serveurs internes d’une entreprise et il existe aujourd’hui des SLM (Small Language Model) qui s’exécutent sur un smartphone ! Plus la recherche avance et plus les modèles seront efficaces tout en maintenant des réponses de qualité.

Une histoire qui reste encore à écrire

Actuellement, les LLM sont très largement utilisés pour générer un email, résumer des textes sur un sujet, faire de la traduction. C’est utile, mais tout reste à faire car ces modèles vont pouvoir s’attaquer à des tâches de plus en plus complexes. Le secteur du développement informatique est certainement celui où son usage s’est généralisé le plus rapidement. Les LLM aident les développeurs à écrire du code, à corriger les bugs, voire à trouver des failles de sécurité dans un programme.

Beaucoup reste encore à inventer. Par exemple, même s’il n’existe pas encore d’approches automatisées et industrialisées pour le faire, les LLM peuvent apprendre à interpréter les schémas d’architecture informatique et les traduire en code, ou inversement. Il en sera probablement de même pour des documents encore plus complexes comme des plans d’architecture, des schémas électroniques, etc.

Nous commençons tout juste à voir arriver des LLM spécialisés pour tel ou tel métier. C’est notamment le cas dans le domaine juridique mais cet exemple va se décliner à l’infini dans tous les domaines d’activité.

On a beaucoup glosé sur les erreurs flagrantes et affabulations que peut répondre ChatGPT à des questions pour lesquelles il n’a pas de réponse. Ces erreurs et hallucinations doivent certes être prises en comptes et maîtrisées, mais ne doivent pas être un frein au déploiement des LLM dans le milieu professionnel.

D’une part, il est préférable de mettre un filtre humain à ces IA : L’IA ne vient pas remplacer l’agent d’un centre d’appel, mais va lui suggérer des réponses. Si la solution proposée est totalement fantaisiste, l’humain s’en rend compte immédiatement et va reformuler sa demande.

D’autre part, de génération en génération, les LLM s’améliorent à vitesse grand V. Les réponses de GPT 4 n’ont plus rien à voir avec ce que fournissait les premières versions de GPT 3 et cette tendance à l’amélioration ne va que s’amplifier chez tous les fournisseurs.

De multiples benchmarks permettent aujourd’hui d’évaluer la pertinence des LLM dans de nombreux domaines, et ainsi mesurer les progrès réalisés. De nombreux LLM peuvent maintenant très bien repérer l’ironie ou le sarcasme dans les requêtes de l’utilisateur et beaucoup mieux interpréter la complexité du langage humain.

2024, l’année des RAG en entreprise

Une autre avancée majeure qui va beaucoup se diffuser en 2024, c’est la capacité d’un LLM à citer ses sources. C’est notamment ce qu’apportent les architectures RAG (Retrieval Augmented Generation). L’entreprise donne un certain nombre de documents et de sources de données au LLM afin d’enrichir ses réponses et les contextualiser par rapport à l’activité de l’entreprise ou à un cas d’usage bien particulier.

Cette approche est peu coûteuse et peut être déployée rapidement. Cela nécessite de mettre en place une base de connaissances dans laquelle le LLM viendra piocher pour générer ses réponses mais aucun entraînement supplémentaire n’est nécessaire.

L’une des autres évolutions majeures qu’est en train de connaître l’IA générative, c’est l’industrialisation et la simplification de l’accès à ces technologies avancées par les entreprises. Ainsi, les plateformes « GenAI » proposées par les fournisseurs Cloud automatisent des tâches qui nécessitaient des compétences de haut vol il y a encore quelques mois. Déployer un RAG est désormais possible en quelques clics sur les grandes plateformes du marché et cette tendance à la simplification ne va que s’amplifier dans les prochains mois.

Cette approche va en quelque sorte redéfinir en partie le rôle du Data Scientist.

Jusqu’ici son talent consistait à créer des modèles sur mesure les plus performants possibles en fonction du problème qui leur était soumis. Demain, la problématique purement algorithmique va se simplifier, les modèles seront de plus en plus prêts à l’usage.

Les Data Scientists auront plus de temps à consacrer aux échanges avec les métiers pour mieux cerner et anticiper leurs besoins. De même, le rôle des analystes va évoluer, car de plus en plus les utilisateurs métiers, notamment le marketing, vont pouvoir requêter les systèmes les plus complexes avec peu ou pas de connaissances techniques. L’IA sera capable de traduire une question en langage SQL, d’aller chercher les bonnes données et de générer pour les utilisateurs métier le graphe le plus adapté.

En ce sens, l’essor fulgurant de l’IA générative a provoqué des craintes auprès de nombreux corps de métiers puisque cette technologie peut potentiellement impacter toutes les professions, y compris celle où l’humain pouvait paraître irremplaçable comme les médecins, les architectes, les métiers de la création. Pourtant, il ne faut pas craindre ces avancées.

L’IA générative va énormément aider les humains dans leurs tâches du quotidien et véritablement transformer de nombreux métiers, mais ne pourra pas remplacer l’humain dont le rôle sera valorisé. En ce sens, je préfère voir l’arrivée de l’IA générative dans les entreprises avec bienveillance et espoir plutôt que méfiance et suspicion

Hector Basset, Ingénieur IA - Ippon Technologies.

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page