Tendance 2024 : l’évolution de l’intelligence artificielle sera un tremplin pour l’IT
Les entreprises se tournent de plus en plus vers le cloud hybride
L’IA étant un cas d’utilisation du cloud hybride, des données publiques sont utilisées pour créer un modèle de base. Il faut ensuite affiner et augmenter ce modèle pour le rendre plus spécifique à l’entreprise, et cela ne peut vraiment se faire que dans le data center de l’entreprise.
Avec une infrastructure en tant que service, la perte de données est inévitable. Toute l’inférence se fait ensuite à la périphérie.
L’algèbre linéaire revient à la page
Le sujet de l’algèbre linéaire redevient clé pour aider à faire avancer les projets d’applications basées sur l’IA. De nombreuses opérations en IA, comme les transformations, les rotations et la mise à l’échelle, sont des opérations d’algèbre linéaire. Elle pourrait faire avancer les applications d’IA telles que le traitement du langage naturel et la vision par ordinateur.
La maîtrise de l’algèbre linéaire permet de comprendre les modèles qui décrivent l’impact des changements sur les résultats, ce qui permet de déboguer et d’améliorer les modèles. L’algèbre linéaire est essentielle pour analyser et trouver un sens aux ensembles de données complexes et volumineux utilisés dans les applications d’IA.
Les organisations rationalisent l’infrastructure
Les développeurs ne devraient pas avoir à se soucier de l’infrastructure. Ils pensent avant tout aux applications cloud hybride et à la gestion de leurs modèles. Ils recherchent le bon modèle et l’infrastructure peut les y aider. Si l’infrastructure comprend ce qu’est un modèle – et ce qu’est une version d’un modèle – On peut obtenir ce modèle à partir du cloud public et le rendre disponible pour affinage, sans que le développeur n’ait à aller chercher les données.
La clé du succès réside dans une infrastructure cohérente et évolutive capable de couvrir l’ensemble du flux de travail de l’IA : de la formation dans le cloud, à l’enrichissement, en passant par le raffinement et la formation dans les centres de données principaux, et l’inférence à la périphérie.
La fin de l’ère des GPU
Le règne des unités de traitement graphique (GPU) dans le domaine du calcul à haute performance, qui alimente les systèmes d’IA, est en train de s’essouffler. En particulier pour les tâches qui nécessitent un traitement parallèle, telles que le rendu vidéo et l’apprentissage profondeur (deep learning). D’autres technologies émergent actuellement comme alternatives aux GPU.
Les chercheurs font progresser l’utilisation des unités de traitement tensoriel (TPU), des réseaux de portes programmables (FPGA) et même des unités centrales de traitement (CPU) à usage général. Les logiciels finiront par aider les systèmes informatiques à choisir les ressources de traitement les plus disponibles et efficaces.
Lire aussi : 10 chiffres sur LightOn, qui prépare son IPO
L’infrastructure scale-out sera essentielle
Contrairement à l’architecture « scale-up », où l’expansion est verticale et implique l’ajout de puissance à une machine existante (par exemple plus de CPU), l’infrastructure « scale-out » est horizontale et implique l’ajout de machines ou de nœuds à un réseau pour augmenter la capacité.
Dans le cas d’une application de cloud hybride, on doit pouvoir s’appuyer sur une infrastructure scale out pour permettre aux modèles de parcourir le chemin depuis la périphérie jusqu’au data center et au cloud public.
Induprakas Keri, SVP & General Manager of Hybrid Multicloud - Nutanix.
Sur le même thème
Voir tous les articles Data & IA