Pour gérer vos consentements :
Categories: Big DataCloud

Roxane Edjali (Gartner) : « Le Big Data n’est pas un marché en soi »

Le Gartner a publié une note de recherche sur le Big Data, « Big Data Drives Rapid Changes in Infrastructure and $232 Billion in IT Spending Through 2016 », dont nous nous faisons l’écho dans notre article « Big Data : 232 milliards de dollars de dépenses IT jusqu’en 2016 ». Roxane Edjali, analyste spécialiste du Big Data au Gartner, revient pour nous sur cette étude.

Silicon.fr : Y a-t-il véritablement un marché du Big Data et pourquoi avez-vous exclu le matériel de votre étude ?

Roxane Edjali : Si le potentiel des dépenses IT liées au Big Data est conséquent, 232 milliards de dollars d’ici à 2016, à l’initial c’est un marché composite, mais pas un marché en soi. Je ne pense pas qu’il va donner lieu à un marché en tant que tel. Le Big Data est plutôt une conjonction d’évènements. Ce sont les technologies qui le composent et sa volumétrie qui viennent étendre le marché. Partant de cette constatation, les marchés impliqués sont liés au logiciel et au stockage. C’est pourquoi nous avons exclu le hardware. D’ailleurs les entreprises vont ré-employer des machines, et pas uniquement des solutions de Big Data.

Silicon.fr : Quels sont les modèles de déploiement du Big data ?

Les modèles de déploiement sont divers et nous assistons à une maturité émergente, en particulier avec des offres hébergées dans du cloud. Les composants impactés sont divers, autour de l’infrastructure applicative et du temps réel, et doivent adresser les problématiques de vélocité. Quant aux usages, ils portent sur l’e-commerce, les médias sociaux, la publicité, les jeux. Les modèles avec souscription du Big Data Analytics via le Web vont représenter un gros pourcentage des dépenses.

Silicon.fr : La vraie problématique du Big Data n’est-elle pas dans l’absence de compétences ?

Lorsqu’il y a peu de compétences en interne, il faut mettre en place des services. C’est une caractéristique des technologies émergentes, qui affichent jusqu’à un ratio de 1 à 20 du service dans la dépense. Avec la maturité, la différence va s’atténuer et la compétence deviendra une partie normale des projets avec la standardisation et le remplacement des technologies dans l’organisation. A partir de 2018, le remplacement sera destructif.

À suivre en page 2 : Big Data et Cloud, le Big Data en France, et les difficultés

Page: 1 2

Recent Posts

Comment l’Hôpital Américain de Paris planifie son stockage à long terme

Les performances évolutives et les mécanismes de protection de la donnée offrent aux 335 médecins…

34 minutes ago

Évaluation des LLM : les arbitrages de Salesforce

Salesforce a entrepris un benchmark des LLM sur des cas d'usage CRM. Comment l'a-t-il orchestré…

1 heure ago

Ce qu’il faut savoir sur Moshi, l’IA vocale de Kyutai

Kyutai a officialisé son IA vocale Moshi et en a ouvert une démo au public.…

5 heures ago

L’app MFA Authy mise à mal par une API non sécurisée

Une API sans authentification a permis à des tiers de valider les numéros de téléphone…

8 heures ago

Les logiciels libres entrés au SILL au deuxième trimestre 2024

D'AgentJ à YesWiki, voici les dernières entrées au SILL (Socle interministériel de logiciels libres).

23 heures ago

WSL2 fait le grand saut vers Linux 6.6

En parallèle de diverses expérimentations, Microsoft livre une première version de WSL2 basée sur Linux…

1 jour ago