Avis d'expert : la gestion du Big Data passe par un réseau solide
Gérer de gros volumes de données nécessite une infrastructure réseau de premier ordre. Une tribune signée Stéphane Duproz, directeur général France de TelecityGroup.
L'accès à Internet partout et pour tous, la multiplication des terminaux et des services numériques ont généré un phénomène que les Anglo-saxons appellent "Big Data" (littéralement, « grosses données »). C'est-à-dire une inflation telle des données qu'il devient difficile, voire impossible, de les gérer dans des bases classiques. Pour les entreprises, le Big Data peut devenir un cauchemar, un "Fat Data" ou au contraire une formidable opportunité si elles savent la saisir. Le cauchemar, on le perçoit bien : envahie par les données (à titre d'exemple, trois milliards de documents sont échangés chaque mois sur Facebook), ne sachant comment les traiter, l'entreprise se contente d'investir dans des baies de stockage qui au fil des mois vont prendre l'apparence de ces kilomètres de linéaires d'archives papiers qui croupissent dans les sous-sols de certaines grandes entreprises et administrations. Cette vision est un immense gâchis, car une donnée qui n'est plus utilisée devient un poids et surtout un centre de coûts.
La réussite passe par une connectivité performante
L'enjeu pour l'entreprise va donc être de garder les données vivantes afin qu'elles soient utilisées de façon efficace, ce qui suppose la mise en place de systèmes permettant la circulation dynamique et l'analyse des informations. Dans ce contexte, les datacenters neutres offrent l'environnement idéal pour rationaliser les serveurs, organiser les flux et également héberger et protéger les données. Cela sous-entend bien sûr une connectivité performante du datacenter, à même d'offrir non seulement une accessibilité à différents opérateurs, mais également une interconnexion « sans couture » avec d'autres datacenters. Pour illustrer l'importance de la performance de la connectivité, on peut prendre l'exemple du trading haute fréquence, qui consiste à faire exécuter à des ordinateurs des transactions financières dans des délais extrêmement courts (de l'ordre de la microseconde). Une connexion défaillante ou moins performante que celle des concurrents peut faire perdre à un opérateur plusieurs dizaines de millions d'euros.
Sur le même thème
Voir tous les articles Data & IA