Pour gérer vos consentements :

Qui est MosaicML, que Databricks acquiert pour plus d’un milliard de dollars ?

Pour MosaicML, la suite de l’histoire s’écrira chez Databricks. Ce dernier va débourser environ 1,3 Md$, primes de rétention comprises, pour s’emparer de la start-up américaine.

L’annonce de ce rapprochement se fait sous la bannière de l’IA générative. Databricks entend, en particulier, faire de sa plate-forme Lakehouse « le meilleur endroit pour construire […] des grands modèles de langage ».

À l’origine, on ne parlait pas d’IA générative chez MosaicML. Fondée en 2020, la société avait réellement pris son envol à l’automne 2021, ayant levé une trentaine de millions de dollars. Sa boîte à outils comportait alors deux briques. D’une part, une bibliothèque ouverte de méthodes d’entraînement et de techniques pour les assembler sous forme de « recettes ». De l’autre, un outil pour visualiser l’effet de ces assemblages sur le rapport coût/performances.

MosaicML résumait alors l’enjeu en deux questions :
« Quelle est la manière la plus rapide ou la plus économique d’entraîner un modèle donné en maintenant la même qualité qu’à l’origine ? »
« Quel est le plus haut niveau de qualité atteignable à budget constant ? »

Ces éléments allaient constituer le socle d’une plate-forme, ouverte un an plus tard. MosaicML y a depuis lors greffé, entre autres, sa propre bibliothèque de streaming de données. Ou encore son propre planificateur pour Kubernetes.

L’orchestrateur de conteneurs est une pièce fondamentale dans l’architecture de la plate-forme, en tant que support de déploiement multicloud. La bibliothèque de streaming permet quant à elle de travailler en stateless (elle complète le chargement dynamique du code et des images Docker).

La plate-forme optimise des éléments tels que le parallélisme, les interconnexions réseau et les frameworks logiciels utilisés.

MosaicML a aussi une plate-forme d’inférence

Depuis le lancement du produit, MosaicML a multiplié les démonstrations chiffrées, de l’entraînement de BERT « à partir de zéro pour 20 $ » ou de Stable Diffusion « pour moins de 50 k$ ». Début mai, il a ajouté à son catalogue une plate-forme d’inférence. Elle se compose de deux niveaux d’offre :

Édition Starter
Accès, par API publique, à divers modèles open source hébergés par MosaicML. Ils sont pour le moment au nombre de quatre. Deux pour générer du texte (modèles maison MPT), deux pour en vectoriser (modèles Instructor).

Édition Enterprise
Déploiement et exécution de tout modèle chez tout CSP. La promesse : « En un clic, transformez un checkpoint en une API hébergée dans votre VPC ». La facturation se fait à la minute-GPU. Une intégration avec le hub Hugging Face est disponible.

MosaicML propose une option de déploiement sur site.

Illustration principale © Yan – Adobe Stock

Recent Posts

IA générative : l’Autorité de la concurrence pointe de sérieux risques

Dans un avis consultatif, l'Autorité de la concurrence a identifié les risques concurrentiels liés à…

2 jours ago

OpenAI signe un accord de contenu avec Time

OpenAI signe un « partenariat de contenu stratégique » avec Time pour accéder au contenu…

2 jours ago

Atos : David Layani (Onepoint) veut sortir du capital

Au lendemain du rejet de sa proposition de restructuration, David Layani annonce sa démission du…

2 jours ago

Évaluer les LLM, un défi : le cas Hugging Face

Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en…

3 jours ago

Mozilla face au dilemme de la GenAI dans Firefox

Mozilla commence à expérimenter divers LLM dans Firefox, en parallèle d'autres initiatives axées sur l'intégration…

3 jours ago

VMware tente d’orienter vers VCF les déploiements pré-Broadcom

VMware met VCF à jour pour y favoriser la migration des déploiements qui, sur le…

4 jours ago