Big Data : un marché en pleine expansion
Publié par La rédaction le - mis à jour à
Selon IDC, le marché des technologies et services big data devrait progresser rapidement pour atteindre 16,9 milliards de dollars en 2015.
La gestion et l'analyse des données non structurées qui envahissent les systèmes d'information réclament l'usage de nouveaux outils et services, de matériels et logiciels, de frameworks, réunis sous le vocable de big data. Selon les analystes IDC, ce marché devrait progresser de 40 % par an jusqu'en 2015, soit sept fois plus rapidement que l'ensemble des technologies de communication et d'information.
Le big data apporte une réponse à deux problématiques : la première concerne les énormes volumes de données qui sont désormais créés au quotidien. À ce titre, 90 % des données qui circulent actuellement dans le monde auraient, selon IBM, était générées au cours des deux dernières années, ce qui donne la mesure de la difficulté et de l'épreuve qui attend les organisations dans les prochaines années. La seconde, qui en découle, porte sur la capacité à rechercher, à extraire et à analyser les informations non structurées qui représentent la très grande majorité de ces données. De quoi créer de nouvelles opportunités pour les acteurs du marché.
De multiples approches
Si le marché du big data devrait connaître en moyenne une expansion de 40 % annuellement, le rythme de progression ne sera pas le même selon qu'il touche les serveurs (27,3 %), le logiciel (34,2 %), ou le stockage (61,4 %). De même, plusieurs approches pourront être adoptées pour déployer une solution : des appliances, de l'outsourcing, voire du cloud computing. Mais il s'agira ici moins de choix technologiques que de choix d'usages, qui appartiendront aux organisations.
Enfin, IDC voit trois scénarios principaux pour le déploiement de la technologie big data, qui vont imposer des choix stratégiques innovants pour le stockage (scale-out) et le traitement des données (Hadoop et MapR) :
- Déploiement pour des données collectées supérieures à 100 To dans un environnement In Memory (les données demeurent dans la mémoire des serveurs et non pas sur les disques) ;
- Déploiement sur des technologies de messagerie en très grands volumes et en temps réel pour la capture et l'analyse des données (majoritairement non structurées) ;
- Déploiement sur des métiers où les volumes de données encore réduites aujourd'hui vont grossir très rapidement.
Crédit photo : © pro motion pic - Fotolia.com