L'intelligence artificielle, levier de transformation des DSI
Constitué de plusieurs milliers de composants, le patrimoine informatique de l'Entreprise est, par
nature, complexe, hétérogène et difficile à inventorier et donc à maitriser. Or, il s'avère que sa bonne compréhension est indispensable, dès lors que l'on veut améliorer la performance de la DSI.
En effet, comment imaginer réduire les coûts de maintenance, si on ne contrôle pas le nombre d'applications nouvelles créées par an ? Ou comment migrer vers le Cloud si on est incapable de cartographier les serveurs avec les applications qu'ils supportent ?
C'est dans ce contexte que, depuis 7 ans, nous aidons nos clients à prendre le contrôle de leur
patrimoine et opérons à leur côté pour bâtir leur plan de progrès qui agit sur différents axes, comme la rationalisation des applications et des infrastructures, le Go To Cloud, l'optimisation de l'operating model, la stratégie de sourcing, la transformation digitale, etc
Lire aussi : { Tribune Expert } - Règlement sur l'Intelligence artificielle : vision holistique et éthique de l'innovation
A Quel(s) problème(s) est confronté le CIO pour analyser son patrimoine informatique ?
Le patrimoine est difficile à analyser, même si l'on dispose de toutes les données nécessaires et des
outils d'aide à la décision permettant de corréler, croiser ou amalgamer ces données.
CMDB (Configuration Management Data Base), inventaires applicatifs, base de tickets, liste des
fournisseurs, portefeuille de projets, éléments comptables, catalogue des processus Métiers, .
plusieurs dizaines de milliers de points de mesure sont nécessaires pour analyser un portefeuille.
Compte tenu de ce volume, le CIO ne peut humainement « tout » voir et donc, sauf à y consacrer un
temps infini, il passe à côté de faits importants. Et même s'il parvient à poser un diagnostic, il lui est
difficile de bâtir le plan d'action ad hoc et d'en quantifier les bénéfices attendus.
Quant aux outils de gestion de patrimoine applicatif (APM), même s'ils ont des vertus, leur intérêt est limité car leur capacité à guider le CIO vers les axes d'analyse les plus pertinents est faible.
L'appel à un expert devient indispensable. Cependant, les spécialistes capables d'identifier les signaux faibles, d'interpréter les tendances et de les décliner en actions, sont très rares.
Pourquoi faire appel à l'intelligence artificielle ?
Le développement de capacités de raisonnement par une algorithmie traditionnelle est très difficile et limitatif.
L'idée est de mettre à profit les techniques d'Intelligence Artificielle (IA) pour créer un programme capable de jouer le rôle d'expert virtuel spécifiquement entrainé à l'analyse de
patrimoines informatiques.
Lire aussi : { Tribune Expert } - L'IA : notre plus grande alliée ou notre pire ennemie dans la lutte contre les cybermenaces ?
Il faut que ce programme sache corréler, comparer et interpréter de gros volumes de données et qu'il puisse, également, présenter les résultats, les expliquer et soit capable d'accompagner le CIO dans sa recherche d'une meilleure performance.
Le moteur d'inférence est le cerveau de l'expert virtuel
Il est doté d'une capacité de logique floue lui permettant de raisonner sur des données partielles ou
manquantes afin de répondre à des questions par l'affirmative, la négative et éventuellement par « je ne sais pas » mais toujours en expliquant les raisons de ses déductions.
Si le moteur d'inférence est le cerveau de l'expert virtuel, la base de règles en est la matière grise.
Sa constitution nécessite la collaboration de deux types de profils :
. L'Expert qui apporte son expérience en matière de diagnostic de SI
· Le Cogniticien qui traduit en règles, le raisonnement utilisé par l'Expert pour analyser
une situation et en déduire un plan d'action.
Nous avons ainsi établi une liste de 300 règles qui couvrent l'ensemble des filtres d'analyse possibles.
Chaque règle amène à un ou plusieurs constats qui sont le résultat de plusieurs sous-constats.
Pour décrire ces règles, nous utilisons un formalisme proche du langage naturel. C'est un atout de la solution qui permettra, dans le futur, une mise à jour et un enrichissement facilités de la base.
Notre base de benchmarks (plus de 7 millions de points de mesure) est pleinement utilisée par le
moteur de règles.
Nombre de règles comparent la donnée relative au contexte analysé avec la donnée de référence issue des benchmarks pour déclencher tel ou tel constat.
Lire aussi : { Tribune Expert } - Trois défis en développement logiciel qui impactent les gains de productivité de votre IA
Une fois décrites, ces règles ont été testées pour vérifier leur pertinence dans différents contextes. Ces tests ont été menés en comparant le résultat produit par l'expert virtuel avec celui produit par l'expert humain lors de précédents diagnostics.
Le résultat est au-delà de nos attentes. En effet, non seulement, le résultat s'est avéré hyper pertinent mais, de plus, le moteur l'a enrichi de constats additionnels que l'expert humain avait omis.
Cette complétude est liée au déclenchement systématique de tous les filtres d'analyse par le moteur.
Le moteur se comporte comme un expert idéal, car il est toujours disponible et capable d'une analyse exhaustive, complexe, en un temps record. Il analyse en quelques secondes plusieurs dizaines de KPIs calculés à partir de plusieurs dizaines de milliers de données brutes via le déclenchement des quelques 300 règles de la base de connaissance !
L'IA s'avère clé : Elle permet une harmonisation par le haut de la qualité des analyses et confère une
scalabilité égale à celle du produit et non plus à celle des experts « humains » qui l'accompagne.
Sur le même thème
Voir tous les articles Actualités