Pour gérer vos consentements :

L’Edge Computing, pour rationaliser les flux de données

Des pools quasi illimités de ressources de calcul centralisées et gérées par un tiers, pouvant être consommés selon les besoins réels des entreprises… telle est la principale promesse du cloud.
Et s’il ne s’agissait là que d’une première étape vers une profonde révolution technologique ?
Et dans ce cas, comment les entreprises peuvent-elles anticiper ce qui se révèlerait être un processus évolutif ?

Les applications semblent primer…

L’une des grandes transitions dans le secteur informatique repose sur le fait que ce sont désormais les applications, et non plus l’infrastructure, qui déterminent les architectures. Bien que ce concept ne soit pas particulièrement nouveau, l’idée de la primauté des applications n’est pas prégnante dans la façon dont la plupart des infrastructures ont été conçues ou déployées ces 10 dernières années.

Dans un monde dirigé par les applications, l’infrastructure ne doit pas être figée. À mesure que les performances des applications évoluent, l’infrastructure doit pouvoir s’adapter, en optimisant son fonctionnement pour mieux répondre aux besoins.

Les véritables avantages du cloud sont opérationnels. Le cloud a ouvert une nouvelle voie dans la gestion de l’infrastructure ; une voie qui apporte ce niveau de dynamisme et qui concrétise cette vision centrée sur les applications.

…mais est-ce réellement le cas ?

L’hypothèse que les applications sont au centre de l’écosystème informatique est en fait biaisée dès le départ.

Dans pratiquement toutes les applications d’entreprise, ce sont les données, et non les applications, qui règnent en maître. L’infrastructure existe pour faciliter l’utilisation des données qui résident au sein du SI.

Une grande partie de l’activité informatique est finalement orientée autour des données, qu’il s’agisse de stockage, de mise en réseau ou encore de services OTT comme la récupération après sinistre. Ce constat a d’énormes conséquences sur les mouvements dans le cloud.

Déplacer les données vers les applications

La vision centralisée du cloud nécessite que les données soient déplacées, voire stockées, là où les applications s’exécutent. Le cloud agit alors comme un véritable hub, où tous les utilisateurs doivent pousser leurs données vers un pool de ressources centralisées.

Lorsque les utilisateurs ou les périphériques sont relativement proches du pool de ressources, lorsque les applications ne sont pas trop sensibles aux temps de latence, lorsque les exigences des données sont plutôt modestes ou même lorsque le coût est la priorité, ce modèle peut être très efficace. Comme première approche architecturale du cloud, il semble même tout à fait logique.

Toutefois, dès que les utilisateurs et les données sont distribués, comme dans le cas de succursales ou dans l’IoT, cette vision entièrement centralisée du cloud devient un obstacle à éliminer. Lorsque les données augmentent ou que la latence s’intensifie, acheminer l’ensemble du trafic par une ressource centralisée devient une véritable gageure.

Déplacer les applications vers les données

À terme, le modèle idéal combinera des données centralisées et distribuées, selon les lois économiques ou physiques qui s’appliqueront.

Les cas d’usage du cloud centralisé sont simples à comprendre, car ce sont les premiers cas d’applications historiques du cloud.

Le SaaS s’appuie déjà sur le cloud public, avec des entreprises comme Salesforce aux avant-postes. Les entreprises qui ont transféré leurs applications vers un cloud public fonctionnent également de cette façon. Cependant, tous les cas d’usage ne peuvent pas faire l’objet d’un déplacement vers un cloud centralisé.

Les initiatives de smart cities et de véhicules connectés génèrent tout simplement trop de données et nécessitent des temps de réponse trop rapides pour qu’un système de calcul centralisé soit viable.

La proximité est importante et ce constat entraîne un déferlement d’innovations autour de l’Edge computing, l’informatique en périphérie.

Au lieu de concevoir une infrastructure dans l’optique d’amener les données aux applications, les entreprises construiront leurs environnements pour faire le chemin inverse. Le problème de transport est ainsi résolu.

Les 4 téraoctets de données générés pendant un trajet de 8 heures par exemple, n’ont pas besoin de quitter la voiture si les applications qui utilisent les données peuvent s’exécuter à bord. Egalement, les données de capteurs sur les sites d’exploitation minière ou de construction n’ont pas besoin d’une liaison satellite pour arriver jusqu’au cloud si celui-ci s’exécute directement sur les machines en périphérie.

Les implications de l’informatique en périphérie

Le cloud est principalement une condition opérationnelle pour rendre les processus plus dynamiques, mais il est également une combinaison de ressources centralisées et distribuées. Ce qui a des conséquences importantes sur la manière dont les entreprises doivent planifier et finalement déployer les architectures cloud.

La variété des environnements d’exploitation nécessite une planification opérationnelle méticuleuse. Par exemple, comment les équipes opérationnelles travailleront-elles avec une combinaison de serveurs physiques, de machines virtuelles, de conteneurs et de systèmes sans serveur ? Comment les entreprises peuvent-elles unifier leur politique de sécurité parmi différents environnements, avec chacun ses propres codes et mises en application ? Comment les workflows peuvent-ils être automatisés si les analyses varient par domaine ou par site ? Comment les entreprises peuvent-elles gérer différents environnements sans bâtir d’équipes redondantes, chacune dédiée à un environnement particulier ?

Et après ?

Le pendule va continuer à osciller entre informatique centralisée et informatique distribuée, annonçant une vague d’applications en périphérie. Même s’il peut être tentant de se concentrer sur l’infrastructure sous-jacente (les périphériques, les disques et les commutateurs), les entreprises doivent toutefois considérer que le cloud est un état opérationnel. Cela signifie qu’il faut passer autant de temps à répondre aux questions sur la manière de gérer que sur la manière de traiter.

Les systèmes de gestion de workflows et de charges de travail unifiés capables de fonctionner sur plusieurs clouds (publics et sur site) vont tenir un rôle essentiel. Les entreprises qui se concentrent exclusivement sur un modèle centralisé découvriront bientôt qu’elles subissent déjà une nouvelle transformation, qui commence alors même que la précédente n’est pas terminée.

Recent Posts

Comment passer de la surveillance traditionnelle au diagnostic anticipé et à la remédiation automatisée

Le concept de "monitoring" s'efface progressivement au profit de celui d'observabilité dans le domaine de…

3 jours ago

Des contrôles des privilèges intelligents pour la sécurité des identités

Considérée comme le socle de la cyber-résilience moderne, la sécurité des identités fait converger les…

1 semaine ago

Les quatre mythes du Zero Trust

Il est essentiel de démystifier les mythes sur la confiance zéro pour aider les organisations…

1 semaine ago

Utilisation d’outils d’IA personnels dans un cadre professionnel : attention aux risques pour la sécurité des données

L'un des plus grands dangers est que les utilisateurs cherchent constamment à optimiser leur productivité,…

1 semaine ago

Comment utiliser l’IA dans les tests et l’assurance qualité

L'automatisation des tests présente de nombreux avantages, tout comme le fait d’équiper les testeurs d’outils…

1 semaine ago