Recherche

Triton : le langage dédié d'OpenAI pour le deep learning

Passage en version 1.0 pour Triton. OpenAI est à l'origine de ce projet de langage dédié - et de compilateur - pour le deep learning.

Publié par Clément Bohic le - mis à jour à
Lecture
2 min
  • Imprimer
Triton : le langage dédié d'OpenAI pour le deep learning

L'heure de la maturité pour Triton ? Le projet, que porte OpenAI, vient de passer en version 1.0. Sa principale brique : un langage dédié ciblant le deep learning. Objectif : faciliter l'implémentation d'opérations non optimisées pour les bibliothèques de référence.

Triton arrive sur un terrain déjà bien occupé. Deux approches majeures s'y sont développées. D'un côté, la compilation polyédrique, adoptée notamment par Tiramisu et Tensor Comprehensions. Elle représente les programmes de sorte que le flux de contrôle est prédictible. Cela favorise les transformations lors de la compilation, en intégrant le parallélisme et la localité des données.
La méthode permet par ailleurs de contrôler la préservation sémantique. Elle présente en revanche une consommation importante de ressources - doublée de procédures coûteuses d'autotuning - et une certaine inertie face au codage parcimonieux.

L'autre approche, adoptée entre autres par Halide et TVM, implique les langages de planification. Ces derniers mettent en ouvre le principe de séparation des préoccupations : ils dissocient l'implémentation de la conception. On n'a donc à écrire qu'une seule fois un algorithme, puis on l'optimise à part. Avec la possibilité de spécifier des éléments qu'un compilateur polyédrique n'aurait pas pu déterminer à partir de l'analyse statique des flux de données.
Les systèmes fondés sur ce paradigme présentent eux aussi des limites face au codage parcimonieux. Il peut en résulter des contraintes importantes dans la planification.

Triton vs CUDA : une histoire de blocs

Triton repose sur une variante du modèle d'exécution SMPD (Single Program, Multiple Data). Avec elle, ce sont pas les tâches qui sont architecturées en blocs, mais les programmes. Soit l'inverse de CUDA (à gauche sur l'exemple ci-dessous, une multiplication matricielle).

Cette approche se révèle particulièrement flexible lorsqu'on a à traiter des matrices creuses (qui comportent beaucoup de coefficients nuls). En analysant les flux de données au niveau des blocs, le compilateur Triton est capable d'automatiser un certain nombre d'opérations importantes. Dont la coalescence (agrégation des transferts DRAM), la vectorisation et la planification des cours.

Triton fonctionne pour le moment sur des GPU NVIDIA. Des travaux sont en cours pour l'adapter aux GPU AMD et aux CPU. On évitera la confusion avec un autre projet du même nom, made in NVIDIA. Il s'agit d'un moteur d'inférence. La plate-forme de cybersécurité Morpheus, actuellement en accès anticipé, en fait usage.

Illustration principale © kras99 - Adobe Stock

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs #cloud

Voir tous les livres blancs

Vos prochains événements

Voir tous les événements

Voir tous les événements

S'abonner
au magazine
Se connecter
Retour haut de page