Pour gérer vos consentements :
Categories: Big DataCloud

Roxane Edjali (Gartner) : « Le Big Data n’est pas un marché en soi »

Silicon.fr : le déploiement du Big Data est souvent associé au cloud…

Quand l’économie ne va pas très bien, les entreprises ne vont pas se lancer dans une offre à coût fixe, sauf en cas de soucis de régulation règlementaire qui impose à l’organisation de ne pas aller sur le cloud. Maintenant, avec la multiplication des données, en particulier les données non structurées, le Big Data ne change pas les problématiques d’hébergement dans le cloud.

Silicon.fr : Où en est l’adoption du Big Data en France ?

En France, les grandes entreprises affichent des niveaux de maturité très différents. Beaucoup affichent leur intérêt et des questionnements. Les entreprises françaises sont plutôt attentistes, elles sont dans observation, 85% d’entre elles ne feront rien de conséquent avant 2015. Et celles qui se lancent sont précurseurs, sauf de facto l’e-commerce et les interfaces web. Dans la grande distribution, la banque, l’assurance, les prototypes se mettent en place. Dans l’industrie, automobile, chez les équipementiers, le Big Data se construit autour des capteurs, pour collecter et analyser les données. Les industriels ont besoin de vélocité pour traiter la volumétrie des capteurs en données structurées. La banque-assurance traite à la fois structuré et non structuré, pour la détection des menaces par exemple. Quant à la grande distribution, elle recherche potentiellement des grandes combinaisons de facteurs, pousser des offres sur les mobiles par exemple.

Silicon.fr : La difficulté ne sera-t-elle pas de trouver les personnes qui seront capable d’analyser les données ?

C’est là que sera l’impact des services, dont le rôle sera de faire l’analyse et de tirer la valeur. Avec les data scientists, nous allons assister à la généralisation de la fonction de statisticien, de linguiste, etc. Mais en effet, la demande sera de plus en plus disproportionnée face au marché. La création de cursus dédiés apportera des gens qui ne seront opérationnels que dans 3 à 5 ans. Il y des compétences à développer, en généralisant les fonctions de statisticiens, ou alors en combinaison avec les analystes. Mais ce sera un des freins à l’adoption des technologies.

Nous constatons la présence de deux facteurs bloquants : la compréhension du management, quelle valeur vont-ils pouvoir en tirer ?; et les compétences. Avec la pratique du distributed processing, la consolidation et la compétition, l’évolution des pratiques et des infrastructure, les Big Data feront partie des infrastructures normales à partir de 2016-2018. Ce sera le moment pivot.

Crédit photo © Gartner


Voir aussi
Quiz Silicon.fr – Le vocabulaire du cloud

Page: 1 2

Recent Posts

Red Hat France : la problématique VMware plus concrète que les LLM

Respectivement DG et CTO de Red Hat France, Rémy Mandon et David Szegedi évoquent le…

2 jours ago

À l’aune des conteneurs, Canonical étend son approche LTS

Canonical formalise un service de conception de conteneurs minimalistes et y associe des engagements de…

2 jours ago

L’Autorité de la concurrence va-t-elle inculper NVIDIA ?

L'Autorité de la concurrence s'apprêterait à inculper NVIDIA pour des pratiques anticoncurrentielles sur le marché…

2 jours ago

Failles sur les équipements de sécurité : le retex du CERT-FR

Le CERT-FR revient sur les failles dans équipements de sécurité présents notamment en bordure de…

3 jours ago

Silo AI, point d’ancrage européen pour Mistral AI

Mistral AI formalise ses travaux communs avec l'entreprise finlandaise Silo AI, qui publie elle aussi…

3 jours ago