Grâce au Machine Learning et à des trains de plus en plus connectés, la SNCF s’est lancé dans un projet de maintenance prédictive, exploitant des algorithmes de Machine Learning. Les rames du Transilien servent de galop d’essai à ce pr ...
![](https://www.silicon.fr/wp-content/uploads/2016/03/rame-bombardier-120x90.jpg)
Grâce au Machine Learning et à des trains de plus en plus connectés, la SNCF s’est lancé dans un projet de maintenance prédictive, exploitant des algorithmes de Machine Learning. Les rames du Transilien servent de galop d’essai à ce pr ...
Co-fondateur d’Ysance, Romain Chaumais détaille les apports du temps réel dans les environnements Big Data. Une nouvelle donne appelée, selon lui, à tout emporter sur son passage.
Une filiale dédiée appelée BluData, un sponsoring du patron d’Auchan, un datalake Hadoop. Le distributeur du Nord dévoile sa formule pour mieux exploiter les gigantesques quantités de données qu’il amasse.
Mixer les données de Météo France à la géolocalisation de ses abonnés. Et confier le tout au Machine Learning. Orange a imaginé cette solution pour protéger ses Livebox des surtensions dues à la foudre. Résultat : des dizaines de milli ...
Confronté à des temps de réponse qui pénalisent ses utilisateurs Tableau, Mappy a greffé à son cluster Hadoop un moteur d’indexation créé par un de ses freelances. La solution a aujourd’hui donné naissance à une start-up, Indexima.
Le responsable de la stratégie de Cloudera, éditeur d’une distribution Hadoop, revient sur l’irruption de frameworks temps réel, comme Spark, dans l’environnement Big Data. Un enrichissement qui ouvre de nouvelles portes aux développeu ...
Afin d’améliorer ses processus et sa relation client face à une concurrence accrue, La Poste Courrier en appelle à Big Data et au tandem Oracle/Cloudera pour valoriser ses dizaines de Go de données générées chaque jour.
Programmé pour mars, IBM Open Platform (IOP) permettra aux mainframes LinuxOne de disposer d’une pile Big Data complète incluant Hadoop, Spark et HBase.
Crédit Mutuel Arkea utilise un outil prédictif pour mieux cibler les propositions commerciales adressées à ses clients appelant le centre d’appels ou se rendant en agence.
Lors de son événement TechEd de Barcelone, SAP réaffirme son positionnement sur le Cloud. Hana Cloud Platform prend l’allure d’une plateforme SaaS et PaaS complète. Plus packagée et intégrée, mais attention, il s'agit encore d'un “work ...
Un système de fichier dédié (HDFS), un mode de stockage et de traitement parallélisés en cluster… de multiples extensions (streaming, In-Memory, Graph…). Et si Hadoop pouvait faire plus que du simple Big Data? Ou autrement?
Le service Cloud Amazon EMR monte en puissance avec l’arrivée de nouveaux logiciels, dont certains en mouture de développement.
Le framework de calcul distribué Spark vient compléter les technologies de traitement de données disponibles dans DSS, la plateforme d'analyse et d'applications prédictives du français Dataiku.
Des clusters Linux, des entrepôts de données compatibles HDFS et une nouvelle solution d’analytique boostée par U-SQL sont ajoutés à l’offre Big Data dans le Cloud de Microsoft, Azure Data Lake.
Cloud Dataproc de Google permet de créer un cluster Hadoop+Spark en quelques minutes seulement. Une offre présentée comme efficace et économique.
La chaîne américaine de supermarchés Target prévoit de recruter jusqu'à 1000 ingénieurs et développeurs. Mais aussi d'équiper ses employés américains de bracelets connectés Fitbit.
Des millions de chômeurs et des pénuries sur certains postes. Pour résoudre ce paradoxe, et améliorer son efficacité commerciale, le spécialiste de l’intérim Randstad mise sur Hadoop et des technologies de Machine Learning.
Pinterest apporte sa pierre à l’édifice du Big Data en publiant un outil Open Source, Terrapin, capable d’ingérer plus de données dans Hadoop et de les rendre utilisables par d’autres systèmes.
SAP reprend à son compte l’outil analytique Open Source Spark pour proposer des traitements croisant les données de Hadoop avec celles de sa base de données maison, Hana.
Les entreprises peinent encore à tirer profit des données collectées en masse... faute de compétences internes et de promotion des meilleurs projets Big Data, selon Intel.
MapR fait un pas de plus dans le logiciel accessible dans le Cloud. Les trois éditions de sa distribution Apache Hadoop sont désormais disponibles sur AWS Marketplace.
Criteo vient de réserver 900 m2 de datacenters entièrement dédiés à un cluster Hadoop. Un investissement significatif qui s’explique par le rôle central que tient la technologie Open Source dans le modèle du Français. Et par sa contrib ...
Criteo, spécialiste de la publicité à la performance, a réservé environ 900 m2 dans le datacenter Equinix de Pantin afin d’y installer un cluster Hadoop géant. La société, qui a bâti son propre design réseau, a fait confiance à Huawei ...
MapR fait les yeux doux à Spark, avec des offres clés en main, et à Microsoft, en rejoignant le Cloud public Azure.
Apache Spark s’invite comme complément sur l’offre Hadoop d’Amazon, la solution Big Data Elastic MapReduce. Il permettra d’accélérer certains traitements.
Pour le Gartner, les déploiements de Hadoop plafonnent, faute notamment de retours sur investissements clairs. Les principaux éditeurs de distributions Hadoop répondent, point par point, au cabinet d’études.
À l'occasion du lancement de Data Science Studio (DSS) 2.0, le Pdg de Dataiku fait le point sur l'évolution de la plateforme maison d'analyse de données et sur l'accélération des projets Big Data.
Des clusters sous-employés, un retour sur investissement qui reste peu clair : pour le cabinet d’études Gartner, les entreprises commencent déjà à se détourner de Hadoop.
SAP fait muer sa base de données In-Memory en plate-forme pour l’Internet des objets. Une solution qui permettra d’exploiter directement les données des capteurs au sein des applications métiers.
Compatible HDFS, l’offre Azure Data Lake sera accessible depuis les applications Big Data Hadoop. Pour les workloads plus classiques, Microsoft livre également SQL Data Warehouse.