2012 sera l'année du Big Data... c'est IDC qui le dit !
1,9 Zo (Zettaoctets) - soit 1.900.000.000.000.000.000.000 (1,9 x 10 puissance 21) octets, ou encore 1,9 milliard de Téraoctets (To), également exprimé en sextillion ou en trilliard d'octets - c'est le volume de données que nous auront créé ou dupliqué en 2011. Soit l'équivalent de l'ensemble de la capacité de stockage de l'information en 2007 ! Oubliés l'Exa ou le Tera, nous passons désormais au Zetta.
Il devient difficile d'imaginer ce que cela représente. Avant, des images comme une pile de papier qui relierait la Terre à la Lune parlaient à notre intellect. Aujourd'hui, nous pourrions évoquer la distance de la Terre à Mars ou de la Terre au Soleil, cela dépasse le cadre de notre vision, et donc ne signifierait plus grand chose. En revanche, au sein des organisations, cela se traduit très simplement : de plus en plus de données à stocker, où les mettre et à quel prix ?
Une problématique technologique
La problématique n'est pas seulement économique, mais également technologique : l'entreprise dispose-t-elle des moyens nécessaires pour s'équiper et pour administrer ses données aujourd'hui et demain, et surtout pour les analyser ? Pour Matt Oostveen, directeur de recherche chez IDC Australie, la réponse est dans le Big Data.
Le volume des données, en particulier non structurées, qui s'accumulent ne permet plus de les traiter avec des outils classiques, comme les bases de données. C'est là qu'intervient le Big Data, une approche différente du traitement, de l'analyse et de l'extraction de la donnée qui passe par la refonte de l'architecture de stockage et de réseau du système d'information. La recherche porte sur le traitement en temps réel du flux des données, la consolidation de l'information provenant de multiples origines et sous de multiples formats, la logique des bases de données, le marquage (tag), etc.
De nombreux acteurs se positionnent aujourd'hui sur ce marché en devenir. Nous pouvons même considérer que les premières technologies sont suffisamment mures pour généraliser le Big Data. L'une des clés de son adoption est dans le serveur. La performance des processeurs et la quantité de mémoire qu'ils embarquent aujourd'hui dans le silicium et sur la RAM (la mémoire « vive ») permettent désormais d'exécuter des bases de données avec de très grands volumes directement en mode « in memory ». La performance des technologies d'aujourd'hui se met au service de la donnée.
L'automatisation en réponse à la hausse des données
Demeure cependant un constat qui pourrait se révéler à terme dramatique : face à l'augmentation exponentielle du volume des données stockées, le nombre des administrateurs du stockage n'augmente pas ! Cette problématique est d'autant plus sérieuse que dans les organisations, un nombre conséquent de processus liés à la gestion du stockage sont encore manuels. Là encore, pour Matt Oostveen, la réponse est dans le Big Data, ou tout du moins dans un volet de ces technologies : l'automatisation. Celle-ci passe bien évidemment par la virtualisation, qui dans beaucoup d'entreprises affiche également un déficit d'automatisation. De nombres réponses sont encore à construire, probablement dans le nuage.
Au fait, préparons nous au futur : la prochaine unité de mesure du volume des données numériques sera le YottaOctets (YottaBytes), soit 10 puissance 24 octets.
crédit photo © pro motion pic - Fotolia.com
Sur le même thème
Voir tous les articles Data & IA