Pour gérer vos consentements :

Avec Brainwave, Microsoft traite l’IA en temps réel dans Azure

Microsoft poursuit ses avancées en matière d’intelligence artificielle, et plus particulièrement dans son traitement. La semaine dernière, à l’occasion de Hot Chips 2017, l’éditeur de Redmond a dévoilé Project Brainwave, une solution matérielle de traitement du deep learning (apprentissage en profondeur ou réseaux de neurones).

Brainwave s’appuie sur des puces FGPA (reprogrammables) d’Intel (la Stratix 10 d’Altera en l’occurrence) architecturées pour mettre en oeuve une plateforme de traitement d’intelligence artificielle en temps réel. Cette architecture de système distribué à haute performance est intégrée directement dans les data centers de Microsoft, Azure en l’occurrence, avec une exploitation en mode DNN (Deep Neural Network).

IA en temps réel

« Project Brainwave réalise un grand pas en avant dans la performance et la flexibilité pour le service basé sur le cloud des modèles d’apprentissage en profondeur, se réjouit Doug Burner, Distinguished Engineer chez Microsoft. Nous avons conçu le système pour l’IA en temps réel, ce qui signifie que le système traite les requêtes aussi rapidement qu’il les reçoit, avec une latence ultra-basse. »

Reprogrammable, le FPGA apporte une certaine flexibilité si on le compare aux puces directement conçues pour une application IA donnée de type DPU (Deep Learning Processing Unit). La plateforme dispose également d’un compilateur et un runtine destinés au déploiement de modèles qualifiés.

Project Brainwave a été conçu pour supporter un large éventail de frameworks destinés au traitement du deep learning tels que Microsoft Cognitive Toolkit et Google Tensorflow. Microsoft assure qu’il prévoit d’en supporter d’autres.

Plus de 130 000 opérations de calcul par cycle

Beanchmark à l’appui, l’éditeur démontre que la solution permet de traiter les tâches à la volée. Les performances atteignent ainsi 39,5 téraflops, avec un temps de latence d’une milliseconde pour chaque requête, le tout grâce à l’exécution de plus de 130 000 opérations de calcul par cycle.

Microsoft n’est pas le seul acteur de la sphère IT à avoir recours à des puces spécialisées dans le traitement IA. Google et Amazon occupent également le terrain, tandis qu’Apple a développé le Neural Engine. Une approche différente de celle de Redmond, puisque les traitements ne s’effectuent pas dans le Cloud mais bien localement sur l’appareil qui embarque la puce dédiée à l’IA.


Lire également
Avec Catapult, Microsoft teste les puces programmables pour datacenter
Intel livre une clé USB à 79 dollars pour le Deep Learning
AMD booste le Deep Learning avec la carte Radeon Instinct MI25

Crédit photo : Lightspring-Shutterstock

Recent Posts

WSL2 fait le grand saut vers Linux 6.6

En parallèle de diverses expérimentations, Microsoft livre une première version de WSL2 basée sur Linux…

2 heures ago

Google pétri d’incertitudes sur l’empreinte environnementale de l’IA

Le dernier rapport environnemental de Google comporte peu d'indicateurs spécifiques à l'IA. Quelles perspectives l'entreprise…

4 heures ago

Optimisation du processus commercial : la clé de la croissance pour les TPE/PME ?

Booster les performances des forces de vente en fondant les processus commerciaux sur ce que…

5 heures ago

Red Hat France : la problématique VMware plus concrète que les LLM

Respectivement DG et CTO de Red Hat France, Rémy Mandon et David Szegedi évoquent le…

1 jour ago

À l’aune des conteneurs, Canonical étend son approche LTS

Canonical formalise un service de conception de conteneurs minimalistes et y associe des engagements de…

1 jour ago

L’Autorité de la concurrence va-t-elle inculper NVIDIA ?

L'Autorité de la concurrence s'apprêterait à inculper NVIDIA pour des pratiques anticoncurrentielles sur le marché…

1 jour ago