Comment l'IA Générative prend sa place dans l'environnement de travail
L'IA Générative s'est-elle déjà installée au coeur de l'environnement de travail ? Dans son étude annuelle sur la transformation interne des organisations, le cabinet Lecko évoque une "avancée majeure".

C'est en 2023, un an après le lancement de ChatGPT, que l'IA générative a vraiment fait son apparition dans la sphère professionnelle. Le phénomène s'est accéléré depuis et devrait encore progresser à l'aune de l'adoption d'agents IA en tous genres.
Mais l'expérience a montré que la diffusion massive d'un outil bureautique n'implique pas un usage maîtrisé et une meilleure productivité.
Si l'IA générative impressionne par ses capacités dans un usage général, son application dans un contexte professionnel soulève des défis spécifiques. En effet, la pertinence des réponses est une préoccupation majeure : un LLM entraîné sur des données générales peut ne pas être adapté pour des tâches qui nécessitent des connaissances pointues propres à un secteur d'activité ou à une entreprise. Par exemple, un modèle de langage pourrait ne pas maîtriser le jargon technique spécifique d'une entreprise ou les subtilités du droit français.
Un autre défi important concerne la confidentialité et la sécurité. L'utilisation de l'IA générative en entreprise implique le traitement de données sensibles. Il est donc crucial de garantir la sécurité des échanges et la protection des données. Le phénomène de "Shadow AI", l'utilisation d'outils d'IA par les employés en dehors des canaux autorisés, peut augmenter de manière significative le risque de fuite de données. Enfin, le coût et la maintenance des modèles représentent un enjeu considérable. La création et la maintenance d'un LLM sur mesure sont des opérations extrêmement coûteuses. Les entreprises doivent donc évaluer soigneusement le rapport coût-bénéfice avant de se lancer dans de tels projets. L'étude note qu'un cycle d'apprentissage d'un modèle tel que GPT-4 est évalué à 12 millions $.
Des avantages significatifs dans plusieurs cas d'usage
L'IA générative excelle dans plusieurs cas d'usage, notamment dans l'analyse, la recherche et la synthèse d'informations. Elle est particulièrement efficace pour les tâches répétitives et circonscrites comme résumer un texte, rédiger un courrier simple ou effectuer un compte rendu de réunion. En revanche, Lecko met en garde contre une vision trop optimiste de l'IA dans les processus plus complexes comme, par exemple, répondre à un appel d'offres ou concevoir un cursus de formation. Pourquoi ? Parce que ces tâches complexes impliquent souvent une multitude d'étapes et l'apport de l'IA sur une seule étape ne garantit pas un gain global de productivité. De plus, il faut prendre en compte le temps nécessaire pour converser avec l'IA, mettre au point le prompt, le stocker, le retrouver, l'adapter et vérifier le résultat.
Lire aussi : Quand l’IA bouscule (sévèrement) l’IT
Si l'IA générative peut apporter des gains de productivité significatifs, 40 % voire plus selon différentes études, il faut prendre en compte le temps d'apprentissage et d'appropriation de ces outils.
Une IA Générative adaptée aux pratiques des entreprises
Lecko préconise plusieurs recommandations pour réussir l'adoption de l'IA générative. En particulier, la contextualisation des prompts qui doivent être enrichis d'informations contextuelles pour orienter le LLM vers des réponses plus adaptées au contexte de l'entreprise. Par exemple, demander "résume ce document en mettant l'accent sur les implications pour notre service marketing" plutôt qu'un simpliste "résume ce document".
Le RAG (Retrieval Augmented Generation) permet aussi d'intégrer les connaissances de l'entreprise de manière plus fine en prenant en compte des sources de données spécifiques, qu'elles soient internes (bases de données, documents, intranet) ou externes (sites web, articles de presse). Le modèle de langage utilise ces sources pour enrichir son contexte et ainsi générer des réponses plus précises et fiables. Par exemple, lorsqu'une question est posée, le moteur va d'abord interroger une base de données ou un document pertinent pour compléter le prompt avant de le soumettre au LLM. Cette méthode est notamment utilisée par Microsoft avec Copilot, qui s'appuie sur l'Office Graph pour contextualiser ses réponses.
Enfin, les SLM (Small Language Models) offrent un meilleur compromis entre les capacités et les ressources nécessaires, notamment en termes de consommation énergétique. Entraînés sur un corpus de haute qualité et finement sélectionné, ils sont plus adaptés à des contextes spécifiques. Par exemple, Microsoft a communiqué sur les performances élevées de ses petits modèles linguistiques, comme Phi 3, qui obtiennent des résultats probants avec une approche plus légère et ciblée.
L'émergence des agents IA
L'année 2024 a marqué un tournant avec l'émergence du concept d'agent IA qui promet une transformation en profondeur des usages.
La distinction entre un "prompt" et un agent IA générative est fondamentale. Alors qu'un prompt standard se limite à une instruction ponctuelle, un agent IA générative peut exécuter des tâches complexes en autonomie, sans nécessiter une intervention humaine constante. Lecko illustre cette différence avec un exemple concret : un agent IA peut traduire un document, rechercher des informations pertinentes, et organiser une réunion de manière autonome, en orchestrant une série d'actions coordonnées. Les agents peuvent également être utilisés pour des tâches plus complexes comme la gestion de projet ou l'automatisation de processus. Cette capacité à mener à bien des tâches complexes sans intervention humaine marque un changement significatif par rapport aux simples chatbots ou assistants numériques.
Les plateformes de Digital Workplace (DWP) intègrent de plus en plus des agents "sur étagère" afin d'améliorer l'expérience utilisateur et d'automatiser des tâches spécifiques. Ces agents préconfigurés sont conçus pour répondre à des cas d'usage précis, en s'appuyant sur le modèle de base et en y ajoutant des capacités externes (accès à l'agenda, aux fichiers, aux applications métiers). Leur intérêt est double : étendre les capacités des LLM et offrir une meilleure contextualisation et une automatisation des tâches. Par exemple, un assistant de productivité peut accéder à votre agenda, vos e-mails, vos documents et vos tâches pour vous fournir un résumé de votre semaine. De même, un assistant de recherche d'information peut trier les résultats en fonction de vos centres d'intérêt et des interactions. Cependant, ces agents "sur étagère" sont généralement cantonnés aux activités pour lesquelles ils sont conçus et peuvent être moins efficaces pour d'autres tâches.
Certains outils vont plus loin en proposant des environnements de développement low / no code pour créer et gérer des assistants conversationnels. Ces "AI builders" permettent d'intégrer les capacités des LLM avec des fonctionnalités d'automatisation, offrant ainsi aux entreprises la possibilité de construire des agents sur mesure adaptés à leurs besoins spécifiques.
Par exemple, Copilot Studio de Microsoft offre un environnement de gestion, de configuration et de diffusion d'assistants conversationnels, en tirant profit de la configuration globale de Microsoft 365. LumApps Companion embarque un système de micro-applications connectées via API à différentes applications métiers. Mozzaik Genius intègre un AI builder pour créer des assistants conversationnels en ajustant les sources, le LLM et le comportement attendu. Ces outils facilitent la création d'agents pour des tâches telles que la recherche d'information, la gestion de projet, ou l'automatisation de processus, sans nécessiter de compétences techniques pointues.
Selon Lecko, le développement des agents marque une évolution significative dans le domaine de l'IA générative, avec des implications profondes pour l'environnement de travail numérique. Capables d'exécuter des tâches complexes en autonomie, ils promettent d'améliorer l'efficacité, de personnaliser l'expérience utilisateur et de transformer en profondeur la manière dont nous interagissons avec la technologie.
Sur le même thème
Voir tous les articles Workspace