Recherche

AWS et Nvidia renforcent leur collaboration sur la GenAI

Lors de sa conférence [AWS re:Invent] à Las Vegas, Amazon Web Services (AWS) a fait une série d'annonces sur sa collaboration avec Nvidia dans le domaine de l'IA générative.

Publié par le | Mis à jour le
Lecture
3 min
  • Imprimer
AWS et Nvidia renforcent leur collaboration sur la GenAI

Amazon Web Services et Nvidia ont annoncé « une expansion de leur collaboration stratégique pour fournir l'infrastructure, les logiciels et les services les plus avancés pour alimenter les innovations en matière d'intelligence artificielle (IA) générative des clients ».

 

A l'occasion de la conférence annuelle [AWS re:Invent], ils ont détaillé les nouveaux développements dans ce domaine, un an après le lancement de ChatGPT  :

> AWS sera le premier fournisseur de cloud à intégrer les 'Superchip ' Nvidia GH200 Grace Hopper dotées de la nouvelle technologie NVLink multi-noeuds. La plateforme sera disponible sur les instances Amazon Elastic Compute Cloud (Amazon EC2).

> Nvidia et AWS collaboreront pour héberger Nvidia DGX Cloud, la formation en tant que service d'IA de Nvidia, sur AWS. DGX Cloud sur AWS accélérera la formation de l'IA générative et des grands modèles de langage pouvant aller au-delà de 1 000 milliards de paramètres.

> Nvidia et AWS collaborent sur le projet Ceiba pour concevoir le supercalculateur d'IA alimenté par GPU le plus rapide au monde - un système à grande échelle avec interconnexion GH200 NVL32 et Amazon EFA, hébergé par AWS pour la propre équipe de recherche et développement de Nvidia. Ce superordinateur unique en son genre - doté de 16 384  NVIDIA GH200 et capable de traiter 65 exaflops d'IA - sera utilisé par Nvidia pour propulser sa prochaine vague d'innovation en matière d'IA générative.

> AWS introduira trois instances Amazon EC2 supplémentaires : les instances P5e, alimentées par des GPU Nvidia H200 Tensor Core, pour les charges de travail génératives d'IA et HPC à grande échelle et de pointe ; et les instances G6 et G6e, alimentées respectivement par des GPU Nvidia L4 et des GPU Nvidia L40S, pour un large éventail d'applications telles que le réglage fin de l'IA, l'inférence, les charges de travail graphiques et vidéo.

Tom Jowitt, Silicon.co.uk

Livres Blancs #cloud

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page