Une priorité pour les entreprises est de se construire une expérience en datascience, quelle que soit la méthode : recrutement, assistance externe, DIY et test and learn.
![](https://www.silicon.fr/wp-content/uploads/2015/02/Capture-d’écran-2015-02-19-à-17.18.21-120x90.png)
Une priorité pour les entreprises est de se construire une expérience en datascience, quelle que soit la méthode : recrutement, assistance externe, DIY et test and learn.
Liebherr-Aerospace Toulouse conçoit, fabrique et assure la maintenance de tous les systèmes d'air installés dans les avions : du prélèvement d'air moteur à la distribution de l'air dans la cabine, en passant par l'antigivrage des ailes ...
Le spécialiste de l’analyse de données va investir sur trois ans dans le développement de ses outils analytiques, la formation de data scientistes et la création de cas d’usages spécifiques à certaines industries.
Les ventes de systèmes de stockage externe ont dépassé 2,3 milliards de dollars au quatrième trimestre 2018 dans la région EMEA, rapporte IDC.
Deloitte France s'est rapprochée de Dataiku, éditeur de la plateforme de data science DSS, pour « systématiser l'usage de l'IA sur les projets clients ».
Disposant d’un volume considérable de données, l’industrie des services financiers commence seulement à prendre conscience de la valeur de ce nouvel or noir.
Plus d'un million d'euros par an et par organisation en France, c'est ce que coûterait en moyenne une gestion de données défaillante (en silos).
Pour la deuxième fois en dix jours, Facebook a déposé plainte contre des sociétés accusées de collecter des données d’utilisateurs ou de monnayer de faux comptes.
Google Cloud propose désormais un forfait mensuel fixe. Le dépassement n’est pas facturé s’il n’excède pas 30% de l’engagement initial.
Concernant l’intelligence artificielle, seuls les discours anxiogènes ont eu voix au chapitre ces deux dernières années. Il est pourtant un sujet qui n’a pas du tout été abordé : les bienfaits de l’intelligence artificielle dans l’entr ...
Les sujets de LAD et de RAD ne sont que les premiers éléments de la chaine et ne suffisent pas pour aborder le sujet de la dématérialisation.
Avec Maximo Asset Performance Management (APM), IBM associe l'intelligence artificielle (IA) et l'analyse avancée pour piloter l'IoT du secteur industriel.
Qlik renforce ses actifs d'intégration de données et d'analyse temps réel grâce à l'acquisition d'Attunity. Une opération à 560 millions de dollars.
Les CDO de 2ème génération ont pour mission de repenser de façon globalisante et transverse l’organisation et la gouvernance de la donnée et de déployer des structures technologiques de la data opérationnalisables et industrialisables ...
ARM s’est associé à plusieurs laboratoires indépendants pour proposer des tests de certification de sécurité pour les objets connectés basés sur son architecture PSA.
La chaîne de grande distribution Albertsons choisit Microsoft Azure, Azure AI et Azure Cognitive Services pour développer son activité dans l'épicerie face à Amazon. En particulier avec des magasins sans caisse.
Google s'engage à fournir le service d'intégration de données et migration cloud d'Alooma aux clients existants d'AWS et Azure. Mais pas aux nouveaux.
Malgré un changement de licence controversé, Redis Labs parie sur le soutien de ses investisseurs pour devenir un acteur de premier plan des bases de données.
Des talents aux données, PwC met en exergue 6 priorités pour un déploiement efficient de l'intelligence artificielle à l'échelle de l'entreprise.
Red Hat Satellite, la plateforme de gestion de systèmes sous RHEL, s'appuiera sur une seule base de données : PostgreSQL. MongoDB est écartée.
Le traitement des données est au coeur des enjeux de transformation économique pour les entreprises. Gartner dresse la liste des 10 solutions d'analyse qui vont tirer le marché pour les trois prochaines années.
Avec Rubrik Build, l'éditeur veut faciliter l'intégration d'applications et outils open source autour du cloud data management.
Changer de fournisseur de Cloud est complexe car la portabilité de gros volumes de données via un Cloud privé nécessite des capacités réseaux à un coût prohibitif. Alors que faire ?
La capacité de stockage mondiale (base installée) pourrait atteindre 11,7 zettaoctets en 2023, selon IDC. Bien moins que la production de données.
Les plans de transformation soutenue par le numérique se diffusent dans les entreprises. Mais les objectifs peinent à être pleinement atteints.
Avec Unity OE 4.5, Dell EMC étend les capacités de gestion, protection et réduction de données avec déduplication de ses baies de stockage full flash.
Google a recruté des spécialistes du processeur afin de développer ses propres puces pour une meilleure intégration.
Qlik Data Catalyst 4.0 (ex-Podium Data) permet aussi d'organiser, gérer et cataloguer les données sur une architecture mono-serveur, sans cluster Hadoop.
Apple somme les développeurs d’applications de retirer leurs mouchards ou de les indiquer de manière explicite en demandant l’autorisation des utilisateurs.