Pour gérer vos consentements :

Comment extraire de la valeur du Big Data, selon Intel

Vendre davantage de produits après avoir anticipé les comportements de clients ou encore prévenir le passage à l’acte d’un suspect grâce à la collecte et à l’anayse d’informations multiples… Les applications concrètes du Big Data sont plus difficiles à mettre en oeuvre que d’investir dans ces technologies, d’après Intel. Aujourd’hui, les dépenses IT dans le Big Data atteignent environ 13 milliards de dollars par an. Un chiffre qui, selon les prévisions du fondeur, pourrait atteindre les 41 milliards de dollars en 2018, dont au moins 2 milliards consacrés au seul matériel équipé de processeurs, ceux d’Intel notamment. Si les entreprises investissent dans les technologies du Big Data, elles ignorent encore souvent comment tirer profit des données collectées en masse.

Investir dans les talents et les projets

« C’est le petit secret gênant du Big Data : personne ne sait vraiment quoi faire avec ces données », a déclaré jeudi Jason Waxman, vice-président data center et directeur du groupe plateformes Cloud chez Intel, lors d’un webcast investisseurs dont s’est fait l’écho IDG. Pour extraire de la valeur des données collectées, le dirigeant fait les trois recommandations suivantes à l’industrie :

  • se doter des talents et des compétences statistiques et analytiques nécessaires, en complément de savoirs plus traditionnels (programmation et administration système);
  • promouvoir les projets Big Data à succès afin de les répliquer au sein de son organisation;
  • faciliter les déploiements d’outils de traitement massif de données.

Et pour ce faire Intel est prêt, comme d’autres sur ce marché, à orienter les choix de l’industrie. Le fabricant américain de puces ayant lui-même investi, l’an dernier, plus de 700 millions de dollars dans Cloudera, éditeur d’une distribution du framework Apache Hadoop.

Big data dans le Cloud… privé

Malgré la popularité de services basés dans le Cloud, Jason Waxman estime que la plupart des entreprises voudront, à l’avenir, gérer en interne leurs opérations Big Data, plutôt que de les confier à des services tiers. Un point de vue qui ne fait pas l’unanimité.

Lire aussi :

Big Data : les technologies sont déployées, mais pas sécurisées
Intel pose ses valises Big Data en région parisienne
Hadoop sur le déclin ? Cloudera, Hortonworks et MapR répondent

crédit photo © agsandrew – Shutterstock

Recent Posts

Le Réseau interministériel de l’État, sujet à dépendance

La Cour des comptes appelle à formaliser et à professionnaliser certains aspects du RIE, tout…

13 heures ago

Etalab en position de faiblesse au sein de la Dinum

La Cour des comptes attire l'attention sur le risque d'affaiblissement d'Etalab, privé, ces dernières années,…

15 heures ago

Une Dinum « balbutiante » sur l’open data et les logiciels libres

Missions historiques de la Dinum, l'ouverture des données publiques et la promotion des logiciels libres…

17 heures ago

Pour son premier LLM codeur ouvert, Mistral AI choisit une architecture alternative

Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…

2 jours ago

Microsoft x Inflection AI : l’autorité de la concurrence britannique lance son enquête

L’Autorité de la concurrence et des marchés (CMA) britannique ouvre une enquête sur les conditions…

2 jours ago

Thomas Gourand, nouveau Directeur Général de Snowflake en France

Thomas Gourand est nommé Directeur Général pour la France. Il est chargé du développement de…

2 jours ago