Travailler avec des assistants IA : les 5 bonnes pratiques

ChatGPT
ChatGPT éducation

ChatGPT a eu un succès des plus fulgurants. Ce succès a marqué le début d’une adoption massive de l’IA qui n’est pas prête de s’arrêter. L’IA va faire partie intégrante de notre quotidien, quel que soit notre secteur d’activité. Comment, dès maintenant, en tirer le meilleur parti ?

Une étude de BCG Henderson Institute révèle que l’utilisation de GPT-4 lors de tâches créatives peut augmenter la performance des participants de 40% comparée à ceux n’utilisant pas l’IA. Cette prise de conscience est largement partagée parmi les dirigeants d’entreprise, avec 95 % d’entre eux autorisant l’utilisation de l’IA générative au sein de leurs structures en 2024. Cependant, 66 % se disent partagés ou insatisfaits face à son développement.

En cause ? Le manque de profils experts, une feuille de route floue et l’absence de stratégie en matière d’IA responsable. Dans ce contexte, maîtriser l’utilisation d’assistants IA, comme ChatGPT ou Gemini, revêt un atout majeur.

Voici quelques bonnes pratiques à adopter quel que soit le modèle ou l’assistant IA que vous utilisez.

#1 Clarté et spécificité

Pour obtenir des réponses pertinentes, il faut s’imaginer que l’IA est comme un être humain qui n’a aucun contexte sur vos besoins. Vous devez donc éviter les instructions vagues portant à interprétation. Car, plus la machine va interpréter (vos besoins, votre discours), plus elle risque de se tromper. Préférez donc un langage univoque avec des expressions claires.

Décrivez de manière détaillée ce que vous souhaitez savoir ou réaliser. Plus votre question sera spécifique, plus la réponse sera ciblée.

#2 Contextualiser son besoin

Le contexte est tout aussi important que la question elle-même. Autrement dit, si vous souhaitez obtenir une réponse technique, il est nécessaire de le préciser à votre modèle. Il ne faut en aucun cas laisser la machine choisir le contexte. Pour cela le prompt, qui est l’ensemble des instructions que vous donnez à la machine, doit contenir des indications sur le contexte de votre besoin.

Par exemple, si vous voulez demander à la machine d’expliquer les symptômes d’une maladie, préciser si c’est destiné à un médecin ou à un patient est important car cela impacte la formulation de la réponse.

Vous pouvez aussi donner des exemples et des contre-exemples pour être précis dans votre requête, tels que : “Je veux que tu rédiges un rapport statistique, comme celui du fichier attaché ”.
A contrario, vous pouvez également indiquer à la machine ce que vous ne voulez pas obtenir.

#3 Affiner par itération

Le premier résultat n’est bien souvent pas le meilleur. La conception de prompts est souvent un processus itératif. Vous formulez un prompt, le testez avec votre modèle d’IA, puis affinez le prompt en fonction de la sortie comme dans un échange. Parfois, il peut être nécessaire d’ajuster le prompt plusieurs fois avant d’obtenir un résultat satisfaisant. N’ayez pas peur d’expérimenter.

Essayer différents types et formulations de vos prompts. Et même, créer délibérément des « mauvais » prompts peut être un excellent moyen d’en apprendre davantage sur la façon dont le modèle d’IA que vous utilisez réagit.

#4 S’inspirer des sciences cognitives

Un grand nombre de techniques avancées sont issues des recherches en sciences cognitives puisque, par certains aspects, la machine est conçue pour simuler le comportement d’un humain.
La technique ReAct, pour “réfléchir et agir” amène la machine à réfléchir d’une certaine façon avant de lui demander d’effectuer une action en lien avec sa réflexion.

Mais les prompts ReAct incluent aussi des instructions détaillées, lui indiquant comment raisonner et quelles actions planifier. Cela peut inclure des commandes d’actions spécifiques comme questionner un moteur de recherche ou consulter une base de données.

La méthode SCRIBE (Specify, Context, Responsibility, Instructions, Banter, Evaluate), plus complexe, se divise en plusieurs étapes pour maximiser les résultats. De nouvelles méthodes de prompt continuent d’émerger, et d’autres verront nécessairement le jour dans les prochaines années.

#5 Savoir quand il ne faut pas utiliser l’IA

Les assistants IA sont très pratiques, mais parfois peuvent aussi s’avérer dangereux. Méfiez-vous si vous travaillez avec des données sensibles, parce que les ingénieurs qui ont conçu les modèles peuvent avoir accès à vos données. Ce serait donc une faille majeure de sécurité.

Mais il y a également des domaines dans lesquels les niveaux de criticité sont décourageants. Par exemple, il serait peu opportun de demander à l’IA d’optimiser des investissements financiers ou de faire un diagnostic de santé à un patient.


Auteur
En savoir plus 
Principal AI Product Manager
Wild Code School
En savoir plus 

Livres blancs A la Une