Pour gérer vos consentements :
Categories: Data & Stockage

Pure Storage : Repenser le stockage, le défi de l’IA

L’intelligence artificielle (IA), tendance phare de 2017, pourrait accroître de près de 38% la rentabilité des entreprises d’ici 2035,

selon une récente étude d’Accenture, et représenterait actuellement une croissance économique de 14 000 milliards de dollars.

Elle soutient depuis plusieurs années la quatrième révolution industrielle, mue par des machines et des services intelligents, et donne naissance à de nouveaux secteurs d’activité tout en en rendant obsolètes de nombreux autres.

Les fondements de l’Intelligence artificielle

Les secteurs d’activité ont tout à gagner avec l’IA : en effet, la capacité à transformer les données brutes en intelligence représente la nouvelle monnaie d’échange face à la concurrence moderne.

Les projets sont nombreux : dans le secteur de la santé, Google mène actuellement un essai clinique en Inde pour automatiser, via l’IA, le dépistage des rétinopathies diabétiques.

Dans le domaine des biens de consommation, Amazon a annoncé le lancement d’une épicerie conceptuelle sans caisse,  Amazon Go, qui emploie les mêmes technologies que les voitures automatiques, avec la fusion des données sensorielles et l’IA.

La révolution de l’IA s’appuie sur l’alliance de trois technologies clés : le deep learning, les unités de traitement graphique (GPU) et le Big data.

Le deep learning est un nouveau modèle informatique qui utilise des couches cachées de réseaux de neurones artificiels inspirés du cerveau humain.

Un modèle basé sur le deep learning peut créer un logiciel simplement en s’appuyant sur une multitude d’exemples dont il a su tirer des enseignements, là où des experts devaient auparavant le créer manuellement.

Un processeur GPU est capable d’exécuter des algorithmes complexes similaires à ceux du cerveau humain. Ces deux technologies ont complètement bouleversé les approches traditionnelles.

L’Intelligence artificielle, indissociable du Big data

En seulement deux ans, la quantité de calculs requise par les algorithmes du deep learning a été multipliée par 15, et la puissance de calcul des GPU par 10, menant ainsi au Big Data, troisième pilier de l’IA. Alors que le volume des données non structurées a littéralement explosé, l’innovation du stockage de ces données a cessé il y déjà longtemps.

Même si le deep learning et les GPU sont massivement parallèles, les technologies de stockage existantes ne le sont pas : elles ont en effet été conçues pour l’ère, aujourd’hui révolue, du traitement en série.

En outre, le fossé entre les capacités de calcul et de stockage ne cesse de s’élargir.

Si les données représentent la monnaie d’échange de la quatrième révolution industrielle, il est déconcertant de penser que le système qui est chargé de les gérer repose sur des composants vieux de plusieurs dizaines d’années.

La lenteur du système de stockage freine les performances du machine learning, d’où la nécessité d’innover et de concevoir une nouvelle plate-forme de données conçue pour l’ère moderne des outils d’analyse intelligents. 

De la nécessité d’un système de stockage moderne

Les utilisateurs qui se lancent dans la voie de l’IA optent souvent pour un ordinateur unique et puissant qui permet de stocker localement toutes les données sur un système à connexion directe équipé de SSD.

Cette configuration répond aux besoins des expériences de deep learning testant différentes structures et différents réseaux. Plus un modèle de deep learning est alimenté en données, plus il révèle son potentiel d’intelligence, si la capacité de l’ordinateur le lui permet.

Selon le professeur Andrew Ng, de l’Université de Stanford, expert dans le domaine de l’IA, le deep learning est différent des autres algorithmes : sa précision et ses performances augmentent avec le volume des données d’apprentissage.

Un modèle qui apprend sur une base de données de 100 To est donc beaucoup plus précis qu’un modèle ne disposant que de 1 To. D’où la nécessité d’une nouvelle génération de systèmes de stockage pour offrir la bande passante nécessaire aux GPU, pour accéder aux schémas d’accès aléatoires des fichiers, les plus petits comme les plus gros.

Si le principal frein à l’Intelligence artificielle auparavant était la puissance de calcul, la nouvelle frontière réside aujourd’hui dans le stockage.

Heureusement des solutions apparaissent pour résoudre cette problématique, mais il est important pour les entreprises d’en être conscientes pour ne pas faire le mauvais choix en termes d’infrastructure pour supporter de tels projets.

Recent Posts

Le Negative Trust ou l’évolution du concept de Zero Trust

Le concept de Negative Trust ne vise pas à se méfier de ses propres collaborateurs,…

2 jours ago

La souveraineté des données est loin d’être une chimère

Le respect des réglementations en matière de souveraineté des données exige une gouvernance, une conformité…

2 jours ago

L’avenir de l’IA passe par l’open source

Les lignes de code source ouvertes permettent aux utilisateurs de comprendre et de contrôler comment…

7 jours ago

Directive NIS2 en UE : une échéance imminente, une préparation insuffisante

Cette directive impose dix mesures de sécurité destinées à renforcer la cyber résilience des infrastructures…

1 semaine ago

Comment passer de la surveillance traditionnelle au diagnostic anticipé et à la remédiation automatisée

Le concept de "monitoring" s'efface progressivement au profit de celui d'observabilité dans le domaine de…

2 semaines ago