Pour gérer vos consentements :
Categories: Logiciels

Nvidia CUDA 1.0 pour développer du GPU Computing HPC

Nvidia propose une solution originale de calcul HPC au travers de la puissance de calcul parallèle des processeurs graphiques, le GPU Computing avec Nvidia Tesla. Mais c’est encore loin d’être suffisant, car il faut l’accompagner d’un environnement de développement logiciel pour les applications HPC

C’est ce que propose le constructeur avec Nvidia CUDA 1.0, qui associe un C et kit de développement logiciel (SDK). Cet ensemble logiciel, associé à Tesla, apporte une plate-forme informatique massivement parallèle et flexible pour les applications intensives exigeantes.

CUDA 1.0 comprend de nouvelles optimisations du compilateur C et des améliorations des performances avec une nouvelle fonctionnalité et des exemples de code C. Les bibliothèques CUDA BLAS et FFT ont été optimisées et comprennent une fonctionnalité additionnelle ainsi que de nouveaux exemples de code C destinés au calcul financier et à l’imagerie médicale, qui ont déjà installés avec le SDK.

De plus, le code d’interface CPU vers le GPU a été amélioré permettant les appels de lancement asynchrone et les copies de mémoire entre appareils asynchrones.

Démonstration par l’exemple avec Matlab En marge de l’annonce de CUDA 1.0, Nvidia a présenté un exemple de plug-in permettant aux programmes Matlab d’utiliser les bibliothèques du processeur graphique (GPU) pour accélérer leurs applications.L’exemple a pour but de montrer aux utilisateurs comment écrire leur propre version pour accélérer leur code et déployer toutes les capacités du GPU à travers l’environnement logiciel CUDA. »Une simulation standard d’une turbulence isotropique 2D avec Matlab dans une résolution convenant à des publications scientifiques (1024×1024) prenait encore récemment quelques jours« , a déclaré Andy Keane, general manager de l’activité GPU Computing de Nvidia. »Avec les plug-ins CUDA, nous pouvons réaliser cette même simulation en 4 heures, soit 12 fois plus rapidement, et en l’optimisant davantage, nous pouvons encore raccourcir ce délai.«

Recent Posts

IA générative : l’Autorité de la concurrence pointe de sérieux risques

Dans un avis consultatif, l'Autorité de la concurrence a identifié les risques concurrentiels liés à…

3 jours ago

OpenAI signe un accord de contenu avec Time

OpenAI signe un « partenariat de contenu stratégique » avec Time pour accéder au contenu…

3 jours ago

Atos : David Layani (Onepoint) veut sortir du capital

Au lendemain du rejet de sa proposition de restructuration, David Layani annonce sa démission du…

3 jours ago

Évaluer les LLM, un défi : le cas Hugging Face

Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en…

4 jours ago

Mozilla face au dilemme de la GenAI dans Firefox

Mozilla commence à expérimenter divers LLM dans Firefox, en parallèle d'autres initiatives axées sur l'intégration…

4 jours ago

VMware tente d’orienter vers VCF les déploiements pré-Broadcom

VMware met VCF à jour pour y favoriser la migration des déploiements qui, sur le…

5 jours ago