Machine learning : Docker Desktop s'ouvre aux GPU sur WSL 2
On peut désormais expérimenter, avec Docker Desktop, la prise en charge de certains GPU NVIDIA sur la couche WSL 2.
Expérimenter la virtualisation GPU sur WSL 2 avec Docker Desktop ? C'est désormais possible sans inscription au programme d'accès anticipé (Developer Preview).
L'objectif n'est pas d'exécuter des applications graphiques. Mais d'exploiter la puissance de calcul des GPU NVIDIA pour réaliser des tâches d'apprentissage automatique en local, sans avoir à faire appel à un serveur Linux.
Dans l'absolu, c'était déjà faisable. Mais la démarche impliquait d'installer et de paramétrer un OS.
Pour tester, on s'assurera de disposer de la dernière build publiée sur le canal Dev de Windows 10. Et d'installer les pilotes graphiques adéquats (en bêta ; à télécharger ici). Ces derniers fonctionnent avec les cartes GeForce et Quadro à partir de la génération Kepler. NVIDIA recommande toutefois d'utiliser des GPU plus récents, reposant sur les architectures Turing ou Ampere.
Cela fait quelques mois que Windows 10 permet aux applications WSL 2 d'exploiter le GPU hôte. Outre CUDA, Microsoft s'appuie sur l'API DirectML, qui gère l'inférence sur les GPU compatibles DirectX 12. Il en a fait le back-end d'une variante de TensorFlow. AMD, Intel et NVIDIA proposent chacun des pilotes qui assurent son fonctionnement à la fois sur Windows et dans WSL.
Photo d'illustration © Jakub Jirsk - Fotolia
Sur le même thème
Voir tous les articles Data & IA