Pour gérer vos consentements :
Categories: ChatGPT

Databricks, une vitrine de plus pour Mistral AI

Qui n’a pas encore intégré des modèles Mistral AI à son catalogue ? Depuis quelque temps, les sociétés technologiques multiplient les annonces à ce sujet*… en tout cas à l’adresse du marché français. Databricks vient de rejoindre la liste.

Comme Snowflake la semaine passée, il a choisi d’officialiser, en parallèle, sa participation au tour de table de série A de Mistral AI. Une opération de financement que la start-up avait révélée en décembre. Montant alors communiqué : 385 M$. On avait appris, à cette occasion, que BNP Paribas, CMA-CGM et Salesforce, entre autres, étaient dans la boucle.

Mistral AI + Databricks : comment ça marche ?

L’accord avec Snowflake s’est traduit par l’intégration des modèles ouverts de Mistral AI sur le service Cortex. Ainsi que par la disponibilité de Mistral Large sur le Data Cloud.

Pas de Mistral Large chez Databricks, mais les modèles ouverts. À savoir Mistral 7B et Mixtral 8x7B – versions Instruct comprises. L’un et l’autre sont disponibles sur la marketplace, où ils voisinent avec près d’une centaine d’autres modèles.

Principal canal pour les utiliser : l’API Foundation Model. Pour y accéder, plusieurs options : le client OpenAI, l’UI Databricks ou les SDK Python et MLflow.
Les endpoints sont également accessibles sur Databricks SQL avec la fonction ai_query. Et dans la console (AI Playground).

Seul Mixtral-8x7B Instruct est compatible avec la facturation à l’usage (par token). Pour les autres, il faut sélectionner l’option « débit provisionné ». Elle implique la création d’endpoints avec garanties de performances. On la sélectionnera aussi si on souhaite ajuster des modèles. Ce qui est faisable Mistral 7B et Mixtral 8x7B.

* Fin 2023, Google Cloud avait annoncé, dans la foulée de l’intégration de Mistral 7B, un partenariat par lequel il allait fournir de l’infrastructure à Mistral AI.
Fin février, Microsoft avait annoncé un « partenariat pluriannuel ». Là aussi axé notamment sur la fourniture de capacités de calcul, il s’est assorti d’une prise de participation minoritaire.
IBM a lui aussi communiqué fin février, pour annoncer l’arrivée de Mixtral 8x7B sur watsonx. AWS a suivi, pour officialiser l’intégration des modèles ouverts de Mistral AI sur Amazon Bedrock.

Illustration © Yan – Adobe Stock

Recent Posts

IA générative : l’Autorité de la concurrence pointe de sérieux risques

Dans un avis consultatif, l'Autorité de la concurrence a identifié les risques concurrentiels liés à…

2 jours ago

OpenAI signe un accord de contenu avec Time

OpenAI signe un « partenariat de contenu stratégique » avec Time pour accéder au contenu…

2 jours ago

Atos : David Layani (Onepoint) veut sortir du capital

Au lendemain du rejet de sa proposition de restructuration, David Layani annonce sa démission du…

2 jours ago

Évaluer les LLM, un défi : le cas Hugging Face

Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en…

3 jours ago

Mozilla face au dilemme de la GenAI dans Firefox

Mozilla commence à expérimenter divers LLM dans Firefox, en parallèle d'autres initiatives axées sur l'intégration…

3 jours ago

VMware tente d’orienter vers VCF les déploiements pré-Broadcom

VMware met VCF à jour pour y favoriser la migration des déploiements qui, sur le…

4 jours ago