Gérer de gros volumes de données nécessite une infrastructure réseau de premier ordre. Une tribune signée Stéphane Duproz, directeur général France de TelecityGroup.
L’accès à Internet partout et pour tous, la multiplication des terminaux et des services numériques ont généré un phénomène que les Anglo-saxons appellent “Big Data” (littéralement, « grosses données »). C’est-à-dire une inflation telle des données qu’il devient difficile, voire impossible, de les gérer dans des bases classiques. Pour les entreprises, le Big Data peut devenir un cauchemar, un “Fat Data” ou au contraire une formidable opportunité si elles savent la saisir. Le cauchemar, on le perçoit bien : envahie par les données (à titre d’exemple, trois milliards de documents sont échangés chaque mois sur Facebook), ne sachant comment les traiter, l’entreprise se contente d’investir dans des baies de stockage qui au fil des mois vont prendre l’apparence de ces kilomètres de linéaires d’archives papiers qui croupissent dans les sous-sols de certaines grandes entreprises et administrations. Cette vision est un immense gâchis, car une donnée qui n’est plus utilisée devient un poids et surtout un centre de coûts.
L’enjeu pour l’entreprise va donc être de garder les données vivantes afin qu’elles soient utilisées de façon efficace, ce qui suppose la mise en place de systèmes permettant la circulation dynamique et l’analyse des informations. Dans ce contexte, les datacenters neutres offrent l’environnement idéal pour rationaliser les serveurs, organiser les flux et également héberger et protéger les données. Cela sous-entend bien sûr une connectivité performante du datacenter, à même d’offrir non seulement une accessibilité à différents opérateurs, mais également une interconnexion « sans couture » avec d’autres datacenters. Pour illustrer l’importance de la performance de la connectivité, on peut prendre l’exemple du trading haute fréquence, qui consiste à faire exécuter à des ordinateurs des transactions financières dans des délais extrêmement courts (de l’ordre de la microseconde). Une connexion défaillante ou moins performante que celle des concurrents peut faire perdre à un opérateur plusieurs dizaines de millions d’euros.
Page: 1 2
Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…
L’Autorité de la concurrence et des marchés (CMA) britannique ouvre une enquête sur les conditions…
Thomas Gourand est nommé Directeur Général pour la France. Il est chargé du développement de…
Pour dissuader le CISPE d'un accord avec Microsoft, Google aurait mis près de 500 M€…
Pour réduire la taille des mises à jour de Windows, Microsoft va mettre en place…
De l'organisation administrative à la construction budgétaire, la Cour des comptes pointe le fonctionnement complexe…