AWS et Nvidia renforcent leur collaboration sur la GenAI
Amazon Web Services et Nvidia ont annoncé « une expansion de leur collaboration stratégique pour fournir l'infrastructure, les logiciels et les services les plus avancés pour alimenter les innovations en matière d'intelligence artificielle (IA) générative des clients ».
At #AWSreInvent, @AWSCloud CEO Adam Selipsky and our CEO Jensen Huang spotlight the pivotal role of #generativeAI in cloud transformation, highlighting their companies' growing partnership. https://t.co/TrmbOu3GXw
- NVIDIA (@nvidia) November 28, 2023
A l'occasion de la conférence annuelle [AWS re:Invent], ils ont détaillé les nouveaux développements dans ce domaine, un an après le lancement de ChatGPT :
> AWS sera le premier fournisseur de cloud à intégrer les 'Superchip ' Nvidia GH200 Grace Hopper dotées de la nouvelle technologie NVLink multi-noeuds. La plateforme sera disponible sur les instances Amazon Elastic Compute Cloud (Amazon EC2).
> Nvidia et AWS collaboreront pour héberger Nvidia DGX Cloud, la formation en tant que service d'IA de Nvidia, sur AWS. DGX Cloud sur AWS accélérera la formation de l'IA générative et des grands modèles de langage pouvant aller au-delà de 1 000 milliards de paramètres.
> Nvidia et AWS collaborent sur le projet Ceiba pour concevoir le supercalculateur d'IA alimenté par GPU le plus rapide au monde - un système à grande échelle avec interconnexion GH200 NVL32 et Amazon EFA, hébergé par AWS pour la propre équipe de recherche et développement de Nvidia. Ce superordinateur unique en son genre - doté de 16 384 NVIDIA GH200 et capable de traiter 65 exaflops d'IA - sera utilisé par Nvidia pour propulser sa prochaine vague d'innovation en matière d'IA générative.
> AWS introduira trois instances Amazon EC2 supplémentaires : les instances P5e, alimentées par des GPU Nvidia H200 Tensor Core, pour les charges de travail génératives d'IA et HPC à grande échelle et de pointe ; et les instances G6 et G6e, alimentées respectivement par des GPU Nvidia L4 et des GPU Nvidia L40S, pour un large éventail d'applications telles que le réglage fin de l'IA, l'inférence, les charges de travail graphiques et vidéo.
Tom Jowitt, Silicon.co.uk
Sur le même thème
Voir tous les articles Actualités