L'Edge Computing, pour rationaliser les flux de données
Dans pratiquement toutes les applications d'entreprise, ce sont les données, et non les applications, qui règnent en maître. L'infrastructure existe pour faciliter l'utilisation des données qui résident au sein du SI.
Des pools quasi illimités de ressources de calcul centralisées et gérées par un tiers, pouvant être consommés selon les besoins réels des entreprises. telle est la principale promesse du cloud.
Et s'il ne s'agissait là que d'une première étape vers une profonde révolution technologique ?
Et dans ce cas, comment les entreprises peuvent-elles anticiper ce qui se révèlerait être un processus évolutif ?
L'une des grandes transitions dans le secteur informatique repose sur le fait que ce sont désormais les applications, et non plus l'infrastructure, qui déterminent les architectures. Bien que ce concept ne soit pas particulièrement nouveau, l'idée de la primauté des applications n'est pas prégnante dans la façon dont la plupart des infrastructures ont été conçues ou déployées ces 10 dernières années.
Dans un monde dirigé par les applications, l'infrastructure ne doit pas être figée. À mesure que les performances des applications évoluent, l'infrastructure doit pouvoir s'adapter, en optimisant son fonctionnement pour mieux répondre aux besoins.
Les véritables avantages du cloud sont opérationnels. Le cloud a ouvert une nouvelle voie dans la gestion de l'infrastructure ; une voie qui apporte ce niveau de dynamisme et qui concrétise cette vision centrée sur les applications.
L'hypothèse que les applications sont au centre de l'écosystème informatique est en fait biaisée dès le départ.
Dans pratiquement toutes les applications d'entreprise, ce sont les données, et non les applications, qui règnent en maître. L'infrastructure existe pour faciliter l'utilisation des données qui résident au sein du SI.
Une grande partie de l'activité informatique est finalement orientée autour des données, qu'il s'agisse de stockage, de mise en réseau ou encore de services OTT comme la récupération après sinistre. Ce constat a d'énormes conséquences sur les mouvements dans le cloud.
La vision centralisée du cloud nécessite que les données soient déplacées, voire stockées, là où les applications s'exécutent. Le cloud agit alors comme un véritable hub, où tous les utilisateurs doivent pousser leurs données vers un pool de ressources centralisées.
Lorsque les utilisateurs ou les périphériques sont relativement proches du pool de ressources, lorsque les applications ne sont pas trop sensibles aux temps de latence, lorsque les exigences des données sont plutôt modestes ou même lorsque le coût est la priorité, ce modèle peut être très efficace. Comme première approche architecturale du cloud, il semble même tout à fait logique.
Toutefois, dès que les utilisateurs et les données sont distribués, comme dans le cas de succursales ou dans l'IoT, cette vision entièrement centralisée du cloud devient un obstacle à éliminer. Lorsque les données augmentent ou que la latence s'intensifie, acheminer l'ensemble du trafic par une ressource centralisée devient une véritable gageure.
À terme, le modèle idéal combinera des données centralisées et distribuées, selon les lois économiques ou physiques qui s'appliqueront.
Les cas d'usage du cloud centralisé sont simples à comprendre, car ce sont les premiers cas d'applications historiques du cloud.
Le SaaS s'appuie déjà sur le cloud public, avec des entreprises comme Salesforce aux avant-postes. Les entreprises qui ont transféré leurs applications vers un cloud public fonctionnent également de cette façon. Cependant, tous les cas d'usage ne peuvent pas faire l'objet d'un déplacement vers un cloud centralisé.
Les initiatives de smart cities et de véhicules connectés génèrent tout simplement trop de données et nécessitent des temps de réponse trop rapides pour qu'un système de calcul centralisé soit viable.
La proximité est importante et ce constat entraîne un déferlement d'innovations autour de l'Edge computing, l'informatique en périphérie.
Au lieu de concevoir une infrastructure dans l'optique d'amener les données aux applications, les entreprises construiront leurs environnements pour faire le chemin inverse. Le problème de transport est ainsi résolu.
Les 4 téraoctets de données générés pendant un trajet de 8 heures par exemple, n'ont pas besoin de quitter la voiture si les applications qui utilisent les données peuvent s'exécuter à bord. Egalement, les données de capteurs sur les sites d'exploitation minière ou de construction n'ont pas besoin d'une liaison satellite pour arriver jusqu'au cloud si celui-ci s'exécute directement sur les machines en périphérie.
Le cloud est principalement une condition opérationnelle pour rendre les processus plus dynamiques, mais il est également une combinaison de ressources centralisées et distribuées. Ce qui a des conséquences importantes sur la manière dont les entreprises doivent planifier et finalement déployer les architectures cloud.
La variété des environnements d'exploitation nécessite une planification opérationnelle méticuleuse. Par exemple, comment les équipes opérationnelles travailleront-elles avec une combinaison de serveurs physiques, de machines virtuelles, de conteneurs et de systèmes sans serveur ? Comment les entreprises peuvent-elles unifier leur politique de sécurité parmi différents environnements, avec chacun ses propres codes et mises en application ? Comment les workflows peuvent-ils être automatisés si les analyses varient par domaine ou par site ? Comment les entreprises peuvent-elles gérer différents environnements sans bâtir d'équipes redondantes, chacune dédiée à un environnement particulier ?
Lire aussi : IaaS : Google, plus "visionnaire" que les autres ?
Le pendule va continuer à osciller entre informatique centralisée et informatique distribuée, annonçant une vague d'applications en périphérie. Même s'il peut être tentant de se concentrer sur l'infrastructure sous-jacente (les périphériques, les disques et les commutateurs), les entreprises doivent toutefois considérer que le cloud est un état opérationnel. Cela signifie qu'il faut passer autant de temps à répondre aux questions sur la manière de gérer que sur la manière de traiter.
Les systèmes de gestion de workflows et de charges de travail unifiés capables de fonctionner sur plusieurs clouds (publics et sur site) vont tenir un rôle essentiel. Les entreprises qui se concentrent exclusivement sur un modèle centralisé découvriront bientôt qu'elles subissent déjà une nouvelle transformation, qui commence alors même que la précédente n'est pas terminée.
Sur le même thème
Voir tous les articles Data & IA