Pour gérer vos consentements :
Categories: CloudDatacenters

IA : vers une flambée des prix des GPU ?

La demande d’accélérateurs d’intelligence artificielle (IA) pour former, tester et exécuter des modèles d’apprentissage automatique (machine learning, ML) augmente.

Un tel engouement impacte les tarifs de processeurs dédiés au traitement graphique (GPU) de terminaux, des ordinateurs aux serveurs pour datacenters, a relevé The Next Platform.

Les GPU peuvent être adaptés aux calculs massivement parallèles qui accélèrent les opérations de traitement qu’implique l’entraînement de grands modèles de langage (LLM).

40 000 $ pièce la carte GPU de qualité serveur

L’inadéquation entre la demande exprimée par le marché et l’offre fait grimper la cote.

Le mouvement entraîne même une « flambée des prix » des GPU de qualité serveur. Certaines puces dédiées, dont des cartes graphiques haut de gamme Nvidia (la version PCI Express des GPU Nvdia H100), peuvent atteindre 40 000 $ pièce sur les places de marché du e-commerce.

Un prix dont s’est fait l’écho dans un tweet John Carmack, programmeur et développeur de jeux vidéo. CNBC relevait à ce propos : « les développeurs utilisent le H100 pour construire de grands modèles de langage qui sont au cœur d’applications d’IA comme ChatGPT d’OpenAI. Exécuter ces systèmes est coûteux et nécessite des ordinateurs puissants pour traiter des téraoctets de données […] Ils dépendent également d’une puissance de calcul importante pour que leurs modèles d’IA puissent générer du texte, des images ou des prévisions. »

En outre, « l’entraînement de modèles d’intelligence artificielle, particulièrement les plus volumineux comme le modèle de langage pré-entraîné GPT (generative pre-training transformer), nécessite d’activer de concert des centaines de GPU haut de gamme. »

Or, les attentes d’acheteurs en entreprise peuvent surpasser les capacités de production de fournisseurs.

De surcroît, les hyperscalers et d’autres opérateurs cloud rationnent l’accès aux capacités GPU de leurs propres développeurs. Aussi, les prix des GPU Cloud – les instances répondant aux exigences de traitement de tâches parallèles – pourraient à leur tour augmenter.

(crédit photo © railwayfx – Adobe Stock)

Recent Posts

IA générative : l’Autorité de la concurrence pointe de sérieux risques

Dans un avis consultatif, l'Autorité de la concurrence a identifié les risques concurrentiels liés à…

2 jours ago

OpenAI signe un accord de contenu avec Time

OpenAI signe un « partenariat de contenu stratégique » avec Time pour accéder au contenu…

2 jours ago

Atos : David Layani (Onepoint) veut sortir du capital

Au lendemain du rejet de sa proposition de restructuration, David Layani annonce sa démission du…

2 jours ago

Évaluer les LLM, un défi : le cas Hugging Face

Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en…

3 jours ago

Mozilla face au dilemme de la GenAI dans Firefox

Mozilla commence à expérimenter divers LLM dans Firefox, en parallèle d'autres initiatives axées sur l'intégration…

3 jours ago

VMware tente d’orienter vers VCF les déploiements pré-Broadcom

VMware met VCF à jour pour y favoriser la migration des déploiements qui, sur le…

4 jours ago