Computex : Nvidia et AMD affichent leur rivalité sur l'IA
Le directeur général de Nvidia, Jensen Huang, et la directrice d’AMD, Lisa Su, ont promis des mises à niveau rapides de leurs puces accélératrices d’intelligence artificielle (IA) lors de discours disputés lors du lancement du salon Computex à Taipei. Un signe de la façon dont l’IA en est venue à dominer la technologie depuis le lancement de ChatGPT en novembre 2022.
Lisa Su a été choisie pour prononcer le discours d’ouverture de la conférence Lundi 3 juin, mais Jensen Huang l’a éclipsée en organisant son propre événement dimanche, au cours duquel il a « teasé » une plate-forme appelée Rubin, prévue pour 2026.
Jensen Huang n’a pas donné beaucoup de détails sur la plate-forme, du nom de Vera Rubin, une astronome américaine qui a contribué à la découverte de la matière noire, mais a déclaré qu’elle était prévue de fonctionner sur la mémoire HBM4 de nouvelle génération.
Watch our CEO Jensen Huang’s live keynote at #COMPUTEX2024. Discover how the era of #AI is driving a new industrial revolution across the globe. https://t.co/Pab6klI6g1
— NVIDIA (@nvidia) June 2, 2024
Les fabricants de mémoires tels que le leader du marché SK Hynix ont connu une forte demande de puces de mémoire à large bande passante (HBM), contribuant en avril à la plus forte baisse des stocks de puces des entreprises sud-coréennes depuis 2014.
AMD veut combler son retard dans les datacenters
Jensen Huang a déclaré que grâce à l'IA, les ordinateurs ne sont plus « simplement un instrument de stockage d'informations ou de traitement de données, mais une usine pour générer de l'intelligence pour chaque industrie ».
Les produits actuels tels que l'unité de traitement graphique (GPU) Blackwell et le framework CUDA sont conçus pour alimenter les centres de données qu'il a appelés « usines d'IA », permettant aux développeurs de créer des applications d'IA hautes performances.
« Nous servons tous les secteurs, de la santé aux services financiers, en passant par l'industrie informatique et l'industrie automobile – à peu près toutes les grandes industries du monde et tous les domaines scientifiques », a-t-il déclaré.
Jensen Huang a parlé d'« humains numériques » alimentés par Nividia ACE (Avatar Cloud Engine) qui pourraient utiliser l'IA générative dans le service client ou dans d'autres environnements, et a déclaré que la prochaine étape de la technologie était la robotique et « l'IA physique » en utilisant sa plateforme de formation et de développement Omniverse. .
Lisa Su a indiqué, dans son discours d'ouverture, cibler Nvidia dans les centre de données avec des mises à niveau annuelles en 2025 et 2026 et prévoyait d'accélérer la capacité des puces.
Great to be @computex_Taipei launching new products across our portfolio. Huge thanks to @Microsoft @HP @Lenovo @ASUS @StabilityAI who joined us today - Together we are building the future of high-performance computing and AI. pic.twitter.com/OnrJ1wwyZT
— Lisa Su (@LisaSu) June 3, 2024
Mais une grande partie de sa présentation s'est concentrée sur la réduction de la consommation d'énergie les puces AMD pour ordinateur de bureau, adaptées aux tâches d'IA, telles que les outils Copilot+ de Microsoft.
Matthew Broersma, Silicon UK
Sur le même thème
Voir tous les articles Cloud