Recherche

{ Tribune Expert } - Sécurisation des API dans les usines d'IA : un enjeu stratégique pour protéger l'intelligence artificielle

Si l'on s'arrête pour analyser de près l'écosystème de l'IA, il devient vite évident que les API constituent l'épine dorsale qui assure l'interconnexion et l'architecture des applications d'intelligence artificielle.

Publié par le - mis à jour à
Lecture
9 min
  • Imprimer
{ Tribune Expert } - Sécurisation des API dans les usines d'IA : un enjeu stratégique pour protéger l'intelligence artificielle

La transition vers l'intelligence artificielle redéfinit le paysage technologique et stratégique des entreprises et donne naissance à deux grandes catégories d'acteurs. D'un côté, les entreprises qui innovent et se démarquent en investissant massivement dans des secteurs tels que le développement de véhicules autonomes ou de grands modèles de langage (LLMs). De l'autre, celles qui adoptent l'IA pour optimiser leur efficacité opérationnelle et stimuler leur innovation organisationnelle.

Les dirigeants d'entreprise sont déterminés à déployer les fonctionnalités et les applications d'IA générative pour optimiser leur productivité. Parallèlement, les responsables de sécurité et de gestion des risques s'efforcent de mettre en place une gouvernance solide pour garantir une adoption sécurisée de ces nouvelles technologies. Ils doivent aussi gérer un écosystème en pleine expansion, intégrant infrastructures, outils, modèles, cadres et services nécessaires à la création, l'optimisation et la sécurisation des solutions d'IA. Les usines d'IA, quant à elles, sont en train de devenir l'architecture de référence pour concevoir des produits et des services à forte valeur ajoutée, différenciés par l'IA.

Si l'on s'arrête pour analyser de près l'écosystème de l'IA, il devient vite évident que les API constituent l'épine dorsale qui assure l'interconnexion et l'architecture des applications d'intelligence artificielle.

En effet, les API sont les interfaces qui servent à entraîner et exploiter les modèles d'IA. Cependant, ces mêmes interfaces constituent des vecteurs d'attaque privilégiés pour les acteurs malveillants, qui les exploitent pour exfiltrer des données, contourner les restrictions de sécurité, détourner les modèles à des fins abusives voire inverser et voler les modèles eux-mêmes. En définitive, il est impossible de sécuriser les modèles d'IA si les interfaces qui les hébergent ne sont pas elles-mêmes protégées.

Étant donné le rôle essentiel des API dans le développement et le déploiement des applications d'IA, il est impératif d'intégrer, dès les premières étapes du cycle de vie de l'IA, une approche holistique alliant visibilité, sécurité et gouvernance des API. De plus, l'application de contrôle fondamentaux, tels que la gestion des quotas de requêtes et la validation des données, doit être prévue dès la phase de conception afin de réduire les risques d'abus et de vulnérabilités. En adoptant cette démarche proactive, l'intégration sécurisée de l'IA sera plus fluide et mieux maîtrisée.

Quatre raisons expliquent pourquoi la sécurisation des API est indispensable à la sécurité de l'IA et au déploiement sécurisé des usines d'IA.

1ère raison : l'IA, à l'avant-garde des applications modernes

À l'image des usines de fabrication traditionnelles, les usines d'IA utilisent des modèles d'IA pré-entraînés pour convertir des données brutes en informations intelligibles et exploitables. Ces applications, véritables vitrines de l'innovation numérique, reposent sur une architecture hautement distribuée et interconnectée via des API.

Bien que les applications d'IA soient confrontées aux mêmes risques et défis que les applications modernes, elles présentent des vulnérabilités propres à leur cycle de vie. Parmi celles-ci figurent des étapes critiques telles que la formation des modèles, le peaufinage (fine-tuning), l'inférence, la génération augmentée de récupération (RAG) et les points d'insertion au sein des usines d'IA.

Les applications d'IA, à l'instar des applications modernes, sont intrinsèquement distribuées, favorisent la prolifération d'outils et compliquent la gestion de la visibilité, l'application cohérente des politiques de sécurité et la remédiation homogène des menaces dans des environnements hybrides et multicloud. Au-delà des défis posés par la complexité et l'exposition aux risques, les équipes de sécurité doivent également composer avec l'imprévisibilité des interactions humaines et la variabilité des réponses générées par l'IA. Cette dynamique aléatoire peut créer des comportements inattendus, qui exigent une vigilance particulière sur des aspects critiques, tels que la normalisation des données, la tokenisation, l'encodage et la gestion des bases de données vectorielles.

La centralisation des données dans les usines d'IA crée un écosystème d'entreprise interconnecté et unifié. Mais les interfaces et l'intégration de tous ces éléments dynamiques exigent une posture de sécurité API robuste.

2ème raison : les API, au service de l'interconnexion des applications d'IA

L'essor des systèmes basés sur les API, porté par des initiatives de modernisation, a conduit à une multiplication des architectures distribuées, allant des centres de données, aux environnements multicloud et à l'edge computing.

L'intégration des applications d'IA vient renforcer la complexité des architectures hybrides et multicloud. Face à cette évolution, les entreprises évaluent et déploient rapidement des stratégies de gouvernance adaptées à une multitude d'applications IA et de modèles sous-jacents. Elles adoptent ainsi différentes approches, allant de l'IA-SaaS hébergée dans le cloud à des solutions auto-hébergées ou déployées en périphérie, souvent en fonction des besoins spécifiques de chaque application. Par exemple, certains cas d'usage nécessitent une phase de formation des modèles au sein du centre de données, tandis que l'inférence est réalisée directement en périphérie.

La connectivité à ces modèles d'IA et aux services associés est étroitement liée aux API, qui jouent un rôle central dans l'accès aux services d'inférences les plus courants, par exemple. Cependant, l'essor fulgurant des applications d'IA a généré une augmentation massive de l'utilisation des API. Une seule API peut comporter des milliers de points de terminaison, et les appels d'API, souvent profondément ancrés dans la logique métier, échappent fréquemment à la surveillance des équipes de sécurité. Cette prolifération incontrôlée provoque une complexité opérationnelle considérable et augmente les risques d'exposition et de compromission des systèmes de manière significative.

À l'heure actuelle, les environnements hautement distribués offrent la flexibilité requise pour déployer des applications d'IA et leurs services associés. Ils garantissent également des niveaux de performance, de sécurité, d'efficacité et de précision élevés. Cette approche est d'autant plus importante face aux contraintes liées à la gravité des données. Il n'est donc pas surprenant que 80 % des entreprises exécutent leur charge de travail d'IA dans le cloud public et 54 % l'hébergent sur site*. Quelle que soit l'architecture adoptée, chaque composant doit être rigoureusement sécurisé, et le premier maillon de cette chaîne est la protection des API.

3ème raison : les applications d'IA face à des risques émergents et persistants

Protéger les API, véritables passerelles vers les fonctionnalités des applications d'IA et les flux de données, est indispensable pour garantir une sécurité robuste des systèmes. Si les menaces traditionnelles, telles que l'exploitation de vulnérabilités, les attaques automatisées par bots et les dénis de service (DoS) restent d'actualité, l'émergence de nouveaux points d'insertion et l'évolution des architectures des usines d'IA introduisent des défis de cybersécurité inédits. Les grands modèles de langage (LLM) sont particulièrement exposés à des risques spécifiques via leurs interfaces NLP, plugins, connecteurs de données et services en aval, à chaque phase du cycle de vie de l'IA : entraînement, peaufinage (fine-tuning), inférence et génération augmentée de récupération (RAG). Par ailleurs, les applications d'IA sont confrontées à un paradoxe d'explicabilité qui souligne l'importance d'une traçabilité rigoureuse pour limiter les hallucinations, atténuer les biais et lutter contre la désinformation.

Pendant ce temps, les cybercriminels et les acteurs étatiques ne restent pas les bras croisés. Au contraire, l'IA générative démocratise les attaques, désormais plus automatisées et sophistiquées. Dorénavant, les agents basés sur des LLM peuvent compromettre des applications Web et des API de manière autonome. Ces modèles sont par exemple capables d'exécuter des attaques complexes, telles que l'extraction aveugle de schémas de base de données ou les injections SQL, sans avoir besoin de connaître au préalable la vulnérabilité ciblée.

Alors que les nouveaux risques liés à l'IA sont au centre des débats, on ne saurait trop insister sur l'importance de la sécurité des API pour les usines d'IA. Il y a urgence. La surface des API utilisées par les applications d'IA s'est considérablement élargie. Tous les RSSI doivent désormais intégrer la sécurité des API dans les programmes de gouvernance de l'IA. Rappelons-le, on ne peut pas protéger que ce que l'on ne voit pas. Sans inventaire précis et actualisé des interfaces API utilisées au sein des applications d'IA, les entreprises, qui n'ont qu'une vision fragmentée des menaces, s'exposent à des failles critiques dans leur posture de cybersécurité.

4ème raison : les équipes de cybersécurité doivent s'adapter

Les applications d'IA sont, par essence, dynamiques, évolutives et imprévisibles. Pour garantir une adoption sans risque et maîtrisée, il est indispensable de renforcer des mécanismes de contrôle, de définir des politiques de sécurité strictes et d'intégrer des processus d'automatisation. Leur sécurité sera donc assurée par les technologies d'inspection essentielles et en constante évolution.

Pour sécuriser efficacement les API au sein des applications et des écosystèmes d'IA, plus particulièrement, les entreprises devront pallier le risque d'utilisation abusive d'API tierces. Se focaliser uniquement sur les contrôles de sécurité entrants, bien que indispensables et largement adoptés, ne suffit plus. Elles devront donc intégrer une architecture de sécurité avancée pour les appels d'API sortants et les cas d'usage associés.

Les solutions de gestion des bots ne peuvent plus se reposer uniquement sur la distinction entre utilisateurs humains et entités automatisées, notamment avec l'augmentation du trafic inter services et des communications est-ouest, comme celles générées par les flux de travail des modèles RAG (génération augmentée de récupération). La chaîne d'approvisionnement des applications basée sur les LLM représente un vecteur de risque majeur. Toute compromission de son intégrité peut affecter l'ensemble de l'écosystème, en altérant les données d'entraînement, les modèles et les plateformes de déploiement, souvent dépendants de fournisseurs tiers et exposés à des attaques de falsification ou d'empoisonnement. Face à ces menaces, des contrôles de sécurité rigoureux doivent être intégrés à tous les niveaux : dans les centres de données, les environnements clouds, les infrastructures en périphérie, et tout au long du cycle de vie du développement logiciel, depuis la phase de test jusqu'à la production.

La technologie IA Gateway sera un outil déterminant pour les équipes de sécurité et de gestion des risques. En effet, elle permettra d'atténuer les menaces qui pèsent sur les LLM, telles que l'injection de prompts et la divulgation d'informations sensibles. Cependant, pour une cybersécurité efficace de l'IA, la priorité absolue reste la protection des API qui garantissent la connectivité entre les applications et les écosystèmes d'IA. Pour assurer une protection efficace, la sécurité doit être intégrée de manière native à chaque phase du cycle de vie des applications d'IA.

* Byron McNaught est responsable principal du marketing technique chez F5

Livres Blancs #cloud

Voir tous les livres blancs

Vos prochains événements

Voir tous les événements

Voir tous les événements

S'abonner
au magazine
Se connecter
Retour haut de page