{ Tribune Expert } - Trois choses à savoir sur les applications IA
Ce qui est plutôt inquiétant, c'est que 47 % des entreprises qui se servent de l'IA d'une manière ou d'une autre n'ont aucune stratégie définie. Si la course au cloud public nous a appris quelque chose, c'est bien que se jeter à l'eau sans aucune stratégie risque de poser des problèmes en cours de route.
Il y a sûrement plus de trois choses essentielles à retenir, mais concentrons-nous d'abord sur ces trois éléments.
Premièrement, et c'est important de le souligner, l'IA est une réalité. Une majeure partie des entreprises (69 %) mène des recherches sur les usages potentiels et possibles de l'IA. 43 % d'entre elles déclarent avoir mis en oeuvre l'IA à grande échelle. Elle est soit générative, soit prédictive.
Ce qui est plutôt inquiétant, c'est que 47 % des entreprises qui se servent de l'IA d'une manière ou d'une autre n'ont aucune stratégie définie. Si la course au cloud public nous a appris quelque chose, c'est bien que se jeter à l'eau sans aucune stratégie risque de poser des problèmes en cours de route.
Pour vous aider à définir votre stratégie, notamment lorsqu'il s'agit de comprendre les implications opérationnelles et de sécurité, nous avons élaboré une liste de trois éléments clés à prendre en compte.
1. Les applications IA sont des applications modernes
On ne devrait pas avoir besoin de le dire, mais disons-le quand même. Les applications IA sont des applications modernes. Même si le modèle est au coeur d'une application IA, il ne faut pas non plus oublier que beaucoup d'autres éléments composent une « application IA », comme le serveur d'inférence, les sources de données, les décodeurs, les encodeurs, etc.
Ces éléments sont généralement déployés sous forme d'applications modernes, c'est-à-dire qu'ils s'appuient sur Kubernetes pour assurer la scalabilité, l'ordonnancement, et même la sécurité. Les besoins en ressources varient selon les différentes parties d'une application. Certaines tâches profitent mieux de l'accélération GPU, alors que d'autres fonctionnent parfaitement bien avec de bons vieux processeurs. C'est pour cela qu'un déploiement en tant qu'application moderne a le plus de sens. Il permet de s'assurer que chaque charge de travail d'une application IA est déployée et optimisée selon ses besoins spécifiques en calcul.
Concrètement, cela signifie que les applications IA sont confrontées aux mêmes défis que n'importe quelle autre application moderne. Les leçons apprises de la mise à l'échelle et de la sécurisation des applications modernes que vous avez déjà déployées seront précieuses pour les répliquer aux applications IA.
A retenir sur le plan stratégique :
Exploiter les connaissances et les pratiques existantes en matière de livraison et de sécurité des applications, mais les étendre pour inclure des approches qui reconnaissent que les différents composants des applications d'IA peuvent avoir des besoins en ressources variables, tels que l'accélération GPU pour les tâches de calcul intensif ou les ressources CPU pour les charges de travail moins intensives en termes de calcul. Les déploiements d'applications modernes permettent une flexibilité dans l'allocation des ressources en fonction des besoins spécifiques de chaque composant, en optimisant les performances et la rentabilité.
2. Les applications IA ne sont pas des applications modernes
Je sais que j'ai insisté préalablement sur le fait que ce sont « des applications modernes », mais il existe certaines différences qui affectent l'architecture, les opérations et la sécurité.
Pour commencer, les applications IA manipulent des données non structurées. Les prompts n'ont ni format, ni longueur, ni de type de données préétabli. Avec l'essor des LLM multimodaux, le chaos autour de ces « demandes » ne fait qu'augmenter. Même si la plupart des applications IA contiennent un prompt et une réponse dans une charge utile JSON, je suppose qu'on peut dire que c'est structuré, mais ce n'est pas vraiment le cas parce que la charge utile réelle reste indéfinie.
Deuxièmement, les applications IA communiquent presque exclusivement avec un modèle via une API. Autrement dit, les solutions de détection des bots basées principalement sur le critère « humain » ou « machine » seront moins efficaces. Les services de sécurité capables de distinguer les « bons bots » des « mauvais bots » joueront un rôle clé dans toute stratégie d'IA. Il existe donc une véritable dépendance aux API.
Les modèles d'interaction des applications IA sont souvent dynamiques, variables et imprévisibles. Actuellement, les services de sécurité surveillent surtout les anomalies dans les taux de clics de souris et de saisie par page. Ces services peuvent identifier un comportement de « bot » en repérant des écarts par rapport aux comportements humains standards. Mais cela devient compliqué avec les interfaces conversationnelles, où un utilisateur peut taper, retaper, et soumettre des questions de manière irrégulière. Puisque la plupart des solutions de sécurité, y compris celles pour les API, se basent sur l'analyse comportementale, il va falloir adapter ces approches pour qu'elles restent efficaces.
A retenir sur le plan stratégique :
Vous aurez besoin de capacités de sécurité supplémentaires pour gérer correctement les applications d'IA. Repensez les approches traditionnelles en matière de sécurité, qui risquent de ne pas tenir compte des nuances des interactions conversationnelles. Explorez des approches innovantes telles que la surveillance en temps réel des modèles d'interaction et les mécanismes de contrôle d'accès adaptatifs basés sur des indices contextuels. Reconnaître le rôle essentiel des API pour faciliter la communication avec les modèles d'IA. Investir dans des solutions robustes de sécurité des API pour se protéger contre les accès non autorisés, les violations de données et les attaques malveillantes.
3. Les différentes applications IA utilisent des modèles différents
À l'instar de la réalité qu'est le multicloud, il est très peu probable que les entreprises optent pour un seul modèle d'IA. La raison ? Certains modèles s'adaptent mieux à certains cas d'utilisation.
C'est pourquoi il n'est pas surprenant de voir que l'entreprise moyenne utilise déjà près de trois (2,9) modèles différents, incluant à la fois des modèles open-source et propriétaires. Si on se penche sur l'utilisation des modèles en fonction des cas d'utilisation, une tendance se dessine. Par exemple, dans les cas d'utilisation qui dépendent largement des idées ou des données sensibles de l'entreprise (opérations de sécurité et création de contenu), on observe un gros penchant pour les modèles open-source. En revanche, lorsqu'on examine les cas d'utilisation pour l'automatisation, on constate que Microsoft est de plus en plus privilégié, notamment en raison de sa capacité à s'intégrer facilement aux outils et processus déjà en place dans de nombreuses entreprises.
Il faut bien comprendre cette différence parce que les pratiques, outils et technologies nécessaires pour gérer et sécuriser un modèle d'IA en SaaS ne sont pas les mêmes que pour un modèle d'IA en cloud, et sont encore différents pour un modèle d'IA autogéré. Même s'il existe certaines similitudes,
notamment en matière de sécurité, chaque modèle de déploiement a ses spécificités qu'il faudra prendre en compte.
Beaucoup de considérations entrent ainsi en ligne de compte pour créer, gérer et sécuriser les applications IA, notamment toutes les nouvelles exigences en matière de sécurité et d'évolutivité des modèles. Les défis principaux restent les mêmes, et appliquer le même niveau de rigueur à la mise à l'échelle et à la sécurisation des applications IA sera fondamental pour assurer une mise en oeuvre réussie.
A retenir sur le plan stratégique :
Analysez les cas d'utilisation au sein de votre organisation et identifiez les modèles d'adoption des différents modèles d'IA. Tenez compte de facteurs tels que la sensibilité des données, les capacités d'intégration et l'alignement sur les outils et processus existants. Adaptez votre approche du déploiement et de la sécurité en fonction des caractéristiques spécifiques de chaque modèle de déploiement.
La création, l'exploitation et la sécurisation des applications d'IA doivent tenir compte d'un grand nombre de considérations, dont les nouvelles exigences en matière de sécurité et d'évolutivité des modèles ne sont pas les moindres. Cependant, bon nombre des enseignements tirés du déploiement d'applications modernes au coeur, dans le cloud et à la périphérie au cours de la dernière décennie seront utiles aux organisations. Les principaux défis restent les mêmes, et l'application du même niveau de rigueur à la mise à l'échelle et à la sécurisation des applications d'IA contribuera grandement à la réussite de la mise en oeuvre.
Mais ne pas prêter attention aux différences et se lancer sans au moins une stratégie semi-formelle pour relever les défis en matière de livraison et de sécurité ne peut que conduire à des déceptions en cours de route.
* Lori MacVittie est ingénieur émérite chez F5
Sur le même thème
Voir tous les articles Data & IA