Beaucoup de données, en particulier non structurées, et des outils analytiques perfectibles. Telles sont les principales conclusions d’une étude menée par NetMediaEurope, l’éditeur de Silicon.fr, auprès de 175 DSI et décideurs métiers en Europe. Il ressort que 62 % d’entre eux s’attendent à une augmentation des données non structurées qu’aura à gérer leur entreprise dans les 3 ans à venir. Parmi eux, un sur trois parle même d’une future explosion des volumes. Du côté des grandes entreprises, on estime que cette profusion de nouvelles données non structurées proviendra avant tout des terminaux mobiles et de la géolocalisation. Les prévisions des décideurs sont plus tempérées concernant l’évolution des données structurées, même s’ils s’attendent également à la croissance de ces dernières (57 % parient sur une augmentation, 6 % sur une explosion).
Ce sont donc bien les enjeux du Big Data qui devraient dominer les investissements des 3 prochaines années. Concrètement, seules 14 % des grandes organisations (plus de 1 000 employés) ont déjà déployé une plate-forme Big Data (précisons que l’étude a été réalisée en 2015). Mais le sujet est soit planifié, soit à l’étude dans 55 % des grandes entreprises. Les proportions sont moindres dans les ETI et encore davantage dans les PME de moins de 100 personnes.
Ces données recoupent celles d’un livre blanc récemment publié par GFI et basé sur une étude du cabinet Pierre Audoin Consultants (PAC). Celle-ci évalue à 60 % la proportion de grandes entreprises ayant déployé ou étant en train de déployer un datalake. Un constat assez évident lors du récent salon Big Data Paris (les 7 et 8 mars derniers), où de nombreuses grandes entreprises témoignaient du déploiement de ce réceptacle de données (souvent sur base Hadoop) au-dessus duquel elles commencent tout juste à bâtir de premières applications Big Data (voir les exemples d’Orange, de la SNCF ou encore d’Auchan).
Il reste encore du chemin avant que des architectures permettant aux métiers d’accéder de façon autonome à l’ensemble des données pertinentes (données archivées, données de production en temps réel, sources externes) et de les analyser via des systèmes intelligents. Comme l’écrit GFI dans son document : « Parvenir à un tel scénario demandera des efforts et une certaine coopération pour sortir des KPI exprimés par des métiers distincts et des données stockées en silos. » Les entreprises semblent toutefois prêtes à consentir les investissements nécessaires : selon PAC, 56 % d’entre elles jugent que la donnée a déjà une importance critique pour leur activité. En se projetant à deux ans, la proportion monte même à 74 %.
A télécharger :
A lire aussi :
Romain Chaumais, Ysance : « le Big Data en temps réel n’est pas une exigence, c’est une libération »
Focus sur 11 technologies Big Data en forte croissance
Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…
L’Autorité de la concurrence et des marchés (CMA) britannique ouvre une enquête sur les conditions…
Thomas Gourand est nommé Directeur Général pour la France. Il est chargé du développement de…
Pour dissuader le CISPE d'un accord avec Microsoft, Google aurait mis près de 500 M€…
Pour réduire la taille des mises à jour de Windows, Microsoft va mettre en place…
De l'organisation administrative à la construction budgétaire, la Cour des comptes pointe le fonctionnement complexe…