Pour gérer vos consentements :
Categories: Cloud

Les instances GPU Amazon sont disponibles en Europe de l’Ouest

Les organisations européennes à la recherche de puissance de calcul et de capacité de parallélisation massive des ressources informatiques dans le cloud vont pouvoir accéder à l’offre d’instances GPU d’Amazon Web Services (AWS).

Le GPU (Graphics Processing Unit) ou processeur graphique, à la différence du CPU (Central Processing Unit) c’est-à-dire le processeur qui est au cœur de nos ordinateurs, présente la particularité d’offrir de grandes capacités de parallélisation des processus informatiques et applicatifs. Cette capacité inhérente au traitement des images et de la vidéo (décompression, recomposition des images) est aujourd’hui détournée au profit du HPC (High-Performance Computing), bref, du calcul.

Instances HPC sur Amazon EC2

Un utilisateur du cloud Amazon va pouvoir ouvrir jusqu’à 896 cœurs GPU par instance sur Amazon EC2 (Elastic Compute Cloud). Un cluster d’instances GPU peut également être lancé dans Amazon VPC (Virtual Private Cloud), la section privative et isolée du nuage AWS, qui peut adopter le HPC à la consommation via l’usage d’API (Application Programming Interfaces).

Les principales applications avancées par Amazon sont l’ingénierie assistée par ordinateur, la modélisation moléculaire, l’analyse du génome et la modélisation numérique. Plus industriels sont le transcodage vidéo (pour la compression et la décompression) ou le rendu de surfaces 3D.

Grappes d’instances GPU dans le cloud

Comme l’indique Amazon, HPC sur Amazon EC2 est activé par la famille de grappe des types d’instances. Les instances grappe de calcul et grappe de GPU peuvent être utilisées comme n’importe quelle autre instance Amazon EC2, mais offrent également les fonctions optimisées pour les applications HPC.

Les instances grappe peuvent par exemple être lancées dans un groupe d’emplacements dynamiques et redimensionnables. Toutes les instances ont une faible latence et une bande passante non-bloquante de 10 Gb/s entre les instances. Il est également possible de connecter plusieurs groupes d’emplacements pour créer de très grandes grappes pour un traitement massivement parallèle.

Les instances de grappe de GPU donnent accès aux performances parallèles des GPU Nvidia Tesla qui utilisent les modèles de programmation CUDA et OpenCL pour le calcul GPGPU.

Quant au prix, il faudra de nouveau se plonger dans la tarification d’AWS pour tenter de simuler une approche budgétaire…


Voir aussi
Quiz Silicon.fr – Le vocabulaire du cloud

Recent Posts

Le Réseau interministériel de l’État, sujet à dépendance

La Cour des comptes appelle à formaliser et à professionnaliser certains aspects du RIE, tout…

14 minutes ago

Etalab en position de faiblesse au sein de la Dinum

La Cour des comptes attire l'attention sur le risque d'affaiblissement d'Etalab, privé, ces dernières années,…

2 heures ago

Une Dinum « balbutiante » sur l’open data et les logiciels libres

Missions historiques de la Dinum, l'ouverture des données publiques et la promotion des logiciels libres…

4 heures ago

Pour son premier LLM codeur ouvert, Mistral AI choisit une architecture alternative

Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…

24 heures ago

Microsoft x Inflection AI : l’autorité de la concurrence britannique lance son enquête

L’Autorité de la concurrence et des marchés (CMA) britannique ouvre une enquête sur les conditions…

1 jour ago

Thomas Gourand, nouveau Directeur Général de Snowflake en France

Thomas Gourand est nommé Directeur Général pour la France. Il est chargé du développement de…

1 jour ago