Vers une utilisation généralisée de l'IA, de la consolidation des outils et de l'OpenTelemetry dans le secteur de l'observabilité d'ici 2024
Les budgets resteront toujours un point d'attention pour les DSI et CTO mais l'observabilité continuera à générer des résultats significatifs avec des analyses qui continueront d'être précieuses. Zoom sur les pratiques en matière d'observabilité qui vont s'accélérer en 2024.
Après avoir traversé un ou deux cycles technologiques, celui des années à venir semble différent.
De l'émergence de l'IA générative au futur du DevSecOps en passant par l'open source, les entreprises auront accès à de nombreuses nouvelles applications pour les aider à détecter les anomalies. Et la manière dont nous instrumentons ces applications modernes va mûrir en 2024.
L'écosystème d'observabilité sera ainsi chahuté mettant la pression sur les fournisseurs d'outils d'observabilité pour qu'ils créent une valeur prête à l'emploi et les clients s'attendront à plus de valeur sous la forme d'automatisation et de modules complémentaires d'IA.
Lire aussi : { Tribune Expert } - Trois défis en développement logiciel qui impactent les gains de productivité de votre IA
Aussi, les budgets resteront toujours un point d'attention pour les DSI et CTO mais l'observabilité continuera à générer des résultats significatifs avec des analyses qui continueront d'être précieuses.
Zoom sur les pratiques en matière d'observabilité qui vont s'accélérer en 2024.
La massification des données rend l'utilisation de l'IA essentiel dans l'observabilité
Les entreprises sont confrontées à la massification des données devenues trop importantes pour être digérées, analysées et décortiquées seulement par des humains. Et l'observabilité est devenue un pan essentiel des entreprises pour analyser ces données exponentielles.
Si le terme « AIOps » est déjà répandu, il devient une réalité. L'application de cette technologie à ce domaine est devenue un enjeu de taille, permettant de gagner en efficacité, notamment pour une meilleure détection des anomalies à l'échelle ainsi qu'une meilleure productivité des équipes en place. Plus les outils de surveillance seront développés, plus ils repéreront et signaleront potentiellement des problèmes.
Et si les équipes veulent éviter d'être noyées sous les alertes, les outils doivent trouver un moyen de trier ces alertes, de les classer par ordre de priorité et d'aider les humains à trouver plus rapidement la cause première probable et ainsi décider des mesures correctives et des actions à entreprendre.
Bien entendu, il ne s'agit pas de confier simplement la prise de décision aux algorithmes : nous sommes encore à des décennies d'une IA capable de penser. Les équipes de DevOps doivent définir en amont la stratégie d'observabilité basée sur l'IA qu'elles souhaitent adopter et procéder étape par étape, en réfléchissant à leurs objectifs, à ce qu'elles attendent de leur outil d'IA et à la manière dont il peut les aider à évoluer.
Heureusement, des assistants spécialisés en langage naturel ont été développés pour permettre aux équipes de travailler avec des outils d'observabilité, éliminant ainsi une barrière à l'entrée. À terme, cela devrait aider les entreprises à se rapprocher du «?citizen data scientist?», c'est-à-dire que chaque employé, même s'il n'a pas de connaissance de codage, sera en mesure de réaliser des corrélations et de détecter des anomalies en sachant quelles données utiliser.
La consolidation des outils et l'approche OpenTelemetry
Le vieil adage de l'IT est, depuis des décennies, de faire plus avec moins. Et l'observabilité ne déroge pas à cette règle.
Aujourd'hui encore, les entreprises ont une multitude d'outils de monitoring allant même jusqu'à la centaine. Or, chaque outil ayant ses propres agents pour collecter la donnée, la situation devient ingérable : coût caché, absence de vision globale de leur infrastructure et gestion considérable pour maintenir les ressources, les mises à jour, les configurations, les failles de sécurité...
La tendance de ces prochaines années va donc vers la réduction drastique du nombre d'outils afin de se rapprocher de la consolidation avec en tête le Graal : avoir peu d'outils qui couvrent l'ensemble des applications et infrastructures.
Cette démarche de consolidation des outils va prendre davantage d'ampleur en 2024. Les organisations craignent, à juste titre, que leurs données soient liées à un fournisseur. Ils y voient un handicap et craignent de ne pas être en sécurité si ces données partent dans le cloud.
Si certaines organisations se concentrent initialement sur les coûts, beaucoup se concentrent également sur la consolidation afin de standardiser la manière dont elles collectent et consomment les données.
Cela renforce l'approche d'utiliser l'agent universel open source OpenTelemetry qui continuera à gagner du terrain dans les années à venir. Open source et agnostique, OpenTelemetry offre aux entreprises la possibilité de garder le contrôle sur leurs données. S'il s'agit d'un projet à envisager à long terme avec un retour sur investissement plus long, cette approche est extrêmement intéressante pour les entreprises.
L'observabilité devient un signal significatif pour les opérations de sécurité
Pour de nombreux fournisseurs, les solutions d'observabilité sont complètement distinctes de celles assurant la cybersécurité. Les clients sont souvent frustrés par le manque d'interopérabilité entre les outils ou plateformes totalement distincts qui ne peuvent pas communiquer entre eux.
En 2024, cela est amené à changer. La volonté derrière les outils d'observabilité IA est que tous puissent travailler à partir des mêmes données, même si chaque entreprise a sa propre perspective du DevSecOps.
Il y a un intérêt naturel à aller chasser dans les terres de l'observabilité. En effet, de nombreux acteurs de la sécurité s'intéressent à l'approche de l'observabilité puisque cette discipline dispose de plus de données pouvant détecter des comportements suspects. L'observabilité peut être une des « excuses » pour commencer à faire travailler observabilité et sécurité ensemble - - comme certaines entreprises avant-gardistes commencent déjà à le faire.
La reconnaissance d'un paysage de menaces de plus en plus menaçant sera à l'origine de cette évolution, tout comme les besoins en matière de conformité et de réglementation. La prévalence croissante des organisations «?cloud-first?» ou «?cloud-native?» confère également une gravité naturelle au DevSecOps.
Pour conclure, tous ces changements et innovations arrivent dans un environnement macroéconomique difficile dans lequel les DSI et les directeurs techniques sont soucieux de maîtriser leurs budgets. D'autant que si l'IA provoque un enthousiasme sans précédent, devant les promesses qu'elle laisse espérer, elle s'accompagne obligatoirement par une hausse croissante en termes de ressources de calcul. Et cela représente de nouveaux coûts pour les entreprises qui ne pourront être maîtrisés que par un contrôle accru.
L'observabilité représentera un nouvel atout pour contrôler les données consommées et éviter les coûts cachés.
Sur le même thème
Voir tous les articles Data & IA