Comment Nvidia capitalise sur le développement de l'IA générative
NVidia surfe sur la grosse vague des IA génératives avec une offre qui séduit les CSP autant que l'industrie. Résultat : sa capitalisation boursière s'approche des 1000 milliards $, la plus forte du secteur technologique.
Parmi tous les bénéficiaires de l'effet de ChatGPT et de l'engouement pour les IA génératives, Nvidia fait partie des lauréats.
Sur le terrain financier, le fondeur dirigé Jen-Hsun (Jensen) Huang s'approche des 1 000 milliards $, aujourd'hui autour de 945 milliards $, avec un cours de l'action qui a progressé de 159,5 % de puis le début de l'année.
La raison ? Une augmentation de 50 % de son chiffre d'affaires annoncé pour le deuxième trimestre, poussée par sa place singulière sur le marché avec son offre de puces dédiées à l'intelligence artificielle.
» Depuis plus de 15 ans que nous faisons ce travail, nous n'avons jamais vu des prévisions comme celles de Nvidia pour le deuxième trimestre qui étaient, de l'avis de tous, phénoménales et ont pulvérisé les attentes », a déclaré Stacy Rasgon chez Bernstein cité par Reuters.
Nvidia : une offre qui séduit les CSP
Comme nous l'écrivions sur Silicon en mars dernier, Nvidia se positionne comme une pierre angulaire de l'IA générative. A l'occasion de sa conférence GTC, elle a détaillé son arsenal technologique et quelques accords business de poids.
D'abord en ayant pris une place de choix chez les Cloud Services Provider ( CSP) à l'instar de Google Cloud qui est le premier utilisateur de son GPU L4, une carte low profile « basse consommation » (72 W) qui peut développer jusqu'à 30 Pflops , selon Nvidia.
Il entretient évidemment des relations avec le leader mondial AWS avec les instances EC2 P5, censées être disponibles dans quelques semaines. Ce seront les premières instances GPU du groupe américain à tirer parti de la deuxième génération du pilote EFA.
Nvidia et la puissance de AI Foundations
Mais le fondeur américain dispose aussi d'une marque forte , AI Foundations, qui donne accès à un bouquet de services fondés sur des grands modèles de langage (LLM).
Parmi eux, il y a BioNeMo qui permet d'entraîner et d'exécuter - via UI web ou API - des modèles dans le domaine des sciences de la vie. Le catalogue en comprend plusieurs en source ouverte. Par exemple, AlphaFold2 (de DeepMind) et ESMFold (de Meta) pour la prédiction de la structure des protéines, DiffDock (du MIT) pour l'amarrage moléculaire ou MegaMolBART (made in NVIDIA) pour la découverte de petites molécules.
De son côté, NeMo donne pour le moment accès à cinq modèles entraînés sur des données publiques. Dont trois dérivés de GPT à 8, 43 et 530 milliards de paramètres, respectivement axés sur la classification de texte, le Q&A et la composition. Pour la traduction, il y a BLOOMZ-T0, modèle communautaire.
Enfin, Picasso, troisième service de la famille AI Foundations, viendra compléter l'offre dans le domaine de la création d'images, de vidéos et d'applications 3D.
La gamme AI Foundations repose sur l'architecture DGX Cloud. Cette offre donne accès à des clusters dédiés, à partir de 37 000 $ HT/mois. Le premier à héberger officiellement des instances est Oracle. Azure devrait suivre au troisième trimestre 2023.
Des collaborations forte avec les grandes banques d' images
Dans le domaine des images, Nvidia multiplie les collaborations avec Adobe pour développer des modèles génératifs dont certains seront intégrés, sous la marque Firefly, dans la Creative Suite.
Même idée avec Shutterstock qui va exploiter sa base afin d'entraîner des modèles génératifs 3D qui trouveront place à la fois dans sa boîte à outils Creative Flow et dans l'Omniverse de NVIDIA.
Enfin Getty Images va développer, à partir de ses actifs, des modèles auxquels on pourra accéder par API sur Picasso, avec partage des revenus.
Avec Clément Bohic
Sur le même thème
Voir tous les articles Actualités