Comment la communauté s'empare du modèle ouvert de Mistral AI
Voilà deux mois que Mistral AI a publié son premier LLM ouvert. Coup d'oeil sur une vingtaine de variantes qui ont émergé sur Hugging Face.
Ouvert à la communauté, que devient Mistral 7B ?
Fin septembre, MIstral AI publiait ce LLM ouvert (poids et code d'inférence, sous licence Apache 2.0). Un modèle à 7,3 milliards de paramètres, formé sur Leonardo, un des supercalculateurs de l'initiative EuroHPC. Il est optimisé pour le résumé, la classification et la complétion de texte - ainsi que de code. Il en existe une déclinaison Instruct adaptée à la conversation et à l'exercice des questions-réponses.
Voici quelques-unes des adaptations de Mistral 7B ayant émergé sur Hugging Face.
Les variantes « scientifiques »
ANIMA (Advanced Nature Inspired Multidisciplinary Assistant)
Ce modèle est spécialisé en biomimétisme : il aide à résoudre des problèmes en s'inspirant des propriétés des systèmes biologiques. La base n'est pas Mistral 7B, mais un dérivé : Dolphin-2.0-Mistral-7b. Le dataset sur lequel il a travaillé s'inspire de celui que Microsoft a utilisé pour entraîner son modèle Orca. Il a été augmenté d'exemples générés par GPT (4 et 3.5) et croisé avec le jeu de données Airoboros.
Dolphin est devenu ANIMA à l'appui de :
- 4000 exemples de biomimétisme
- 60 000 exemples de processus fondés sur le biomimétisme
- 600 000 exemples STEM issus de Wikipédia
Cinq cycles d'affinage ont mené à la version actuelle.
I just dropped Dolphin 2.2 Mistral 7b, an Uncensored Apache-2.0 licensed model inspired by Microsoft's Orca. Uses OpenAI's ChatML prompt format. Enhanced with @jon_durbin's Airoboros. Now with Samantha DNA for multi-turn conversation and empathy. You are...
- Eric Hartford (@erhartford) October 29, 2023
Lire aussi : Mistral AI ouvre la porte aux LLM embarqués
SciPhi-Mistral-7B-32k
Ce modèle résulte du finetuning de Mistral 7B sur plus d'un milliard de tokens pour améliorer ses aptitudes de raisonnement scientifique et ses capacités éducatives. Il en existe une version spécialisée sur le dataset self-RAG, destiné à conférer aux modèles une capacité d'autoréflexion.
Head to https://t.co/JULdKnetFh if you would like to test with the self-rag fine-tune.
It's surprisingly good for educational context & I will be iterating to improve it over the coming days. Note, click the magnifying glass to see the fetched context.
Now, I'm off to bed. pic.twitter.com/tNPjuoEq78
- Owen Colegrove (@ocolegro) November 2, 2023
Arithmo-Mistral-7B
Cette variante de Mistral 7B a été affinée avec la méthode QLoRA pour répondre à des problèmes mathématiques. Elle peut produire des programmes Python. Le dataset utilisé combine des éléments de MetaMathQA, lila OOD et MathInstruct.
Excited to announce release of ??????????????-??????????????-???? model that outperforms existing 7B and 13B state-of-the-art mathematical reasoning models by a huge margin on both GSM8K and MATH datasets. pic.twitter.com/c9qd3YRDf8
- Ashvini Jindal (@akjindal53244) October 20, 2023
MetaMath-Mistral-7B
Même objectif qu'Arithmo-Mistral-7B, mais avec uniquement MetaMathQA en source. Les performances sur le benchmark GMS8K sont meilleures que pour LLaMA-2 7B entraîné sur les mêmes données (77,7 vs 66,5).
Les « codeurs »
Mistral-7B-code-16k-qlora
Dataset source : Evol-Instruct-Code-80k (implémentation ouverte du dataset décrit dans l'article WizardCoder). Configuration de travail : trois GPU RTX 3090 (coût estimé : 15 $ d'électricité). Des versions quantisées sont disponibles (formats GPTQ, GGUF et AWQ).
Mistral-7B-codealpaca
Source : le dataset Evol-CodeAlpaca, qui contient des instructions plus longues qu'Evol-Instruct-Code-80k. Également entraîné sur 3 RTX 3090... et également quantisé, aux mêmes formats que Mistral-7B-code-16k-qlora.
Les « linguistes »
LeoLM (Linguistically Enhanced Open Language Model)
Pour obtenir LeoLM, on a poursuivi l'entraînement de Mistral 7B... mais en allemand, avec 65 milliards de tokens de texte extrait du corpus OSCAR-2301. Deuxième étape : du finetuning à l'appui des datasets OpenPlatypus et OpenAssistant (OASST1), via l'API GPT-3.5-Turbo. Des données issues du projet MultilingualSIFT sont aussi mises à contribution. Pour pallier les faiblesses en créativité et en prosodie, on exploite des poèmes et des chansons écrits par GPT-4.
Lire aussi : 10 chiffres sur LightOn, qui prépare son IPO
Il existe aussi des versions de LeoLM fondées sur LLaMA-2 7B et 13B. L'ensemble a été entraîné sur le superordinateur 42 du Centre hessois pour l'intelligence artificielle.
SauerkrautLM
Autre variante germanophone de Mistral 7B. Elle aussi a été formée sur un mélange de texte « natif » et traduit. Des versions quantisées (GPTQ, GGUF, AWQ) sont disponibles. Il existe des variantes fondées sur LLaMA (7B, 13B, 70B). Ainsi qu'un modèle 3B entraîné « from scratch ».
EM German
Plusieurs bases pour cet autre LLM germanophone : LLaMA-2 (version 70B entraînée avec le soutien du programme start-up OVHcloud), LeoLM (7B, 13B)... et une combinaison Mistral-LeoLM. Version quantisées disponibles (GPTQ, GGUF, AWQ).
Delighted to release EM German, a state-of-the-Art open & free german-speaking LLM, finetuned on top of Llama2, @MistralAI and LeoLM.
Find all information, examples & downloads on Github: https://t.co/0Su5ILq2MbMany thanks @TheBlokeAI @winglian @jon_durbin @laion_ai @hessianai pic.twitter.com/2JEBACDFp6
- Jan P. Harries (@jphme) October 6, 2023
LINCE Mistral 7B Instruct
Il s'agit d'une variante de Mistral 7B optimisée pour la rédaction en espagnol. Elle conserve globalement le reste des capacités ud modèle de base.
Introducing LINCE Mistral 7B, Spanish adaptation of the most efficient open-source LLM to date by @MistralAI.
The result: improved writing proficiency and mastery of Spanish.
For more information, benchmark and download links visit our blog:https://t.co/tTa1MlFW8B- Clibrain (@ClibrainAI) October 26, 2023
Karen
Ce modèle de type « secrétaire de rédaction » existe en deux versions : « stricte » (correction grammaticale et orthographique) et « créative » (suggestions de reformulation et d'amélioration de style). Karen a travaillé sur du texte mi-réel mi-fiction dans lequel se trouvaient des erreurs insérées intentionnellement avec un modèle LLaMA, Son concepteur a aussi développé, entre autres, un assistant d'écriture et un générateur de questions.
Les modèles de type Instruct
MistralLite
Similaire à Mistral 7B Instruct, mais amélioré pour travailler à contexte étendu (utilisation d'une fenêtre glissante de 16k en entraînement). Trois datasets sources : SLED (SLidingEncoder and Decoder, qui exploite le découpage, l'encodage et la recombinaison des inputs), NQ (Natural Questions) et OASST1.
OpenInstruct Mistral-7B
Autre modèle spécialisé sur le suivi d'instructions. Dataset source : open-instruct de VMware, lui-même fondé sur des fragments d'OASST1, de Dolly (Databricks) et de HH-RLHF (Anthropic).
Mistral-7B-NoRobots
Entraîné sur le dataset du même nom, modelé à partir de l'article InstructGPT. Coût estimé : 1212 $ (un cycle d'une quarantaine de minutes sur un A6000-48).
Mistral 7B outperforms every pre-trained LLM of similar size. It's even better than some larger models, like Llama 2 13B.
And that's using its out-of-the-box capabilities. Fine-tuning Mistral makes it very powerful in solving specific use cases.
Here is an excellent example:... pic.twitter.com/cBKehdfnTd
Lire aussi : Les LLM en 2023 : quelques articles scientifiques- Santiago (@svpino) November 3, 2023
Les « généralistes »
Mistral-7B-OpenOrca
62 heures de travail sur 8 GPU A6000 ont été nécessaires pour entraîner ce modèle. Source : une partie du dataset OpenOrca (la plupart des données GPT-4). Les performances annoncées sont presque équivalentes à celles de LLaMA-2-70B-chat. Des versions quantisées (GPTQ, GGUF, AWQ) sont disponibles sur Hugging Face.
The @MistralAI winds have attracted superorcas!
Today, we are releasing Mistral-7B-OpenOrca. This is the first 7B model to score better overall than all other models below 30B.🏅 We've achieved 98% of Llama2-70B-chat's performance!😮https://t.co/JS1Y5xVdpW
🧵 1.. pic.twitter.com/VdMLqi6KaC
- Alignment Lab AI (@alignment_lab) October 2, 2023
OpenHermes 2.5
La v1 d'OpenHermes a été entraînée sur 242 000 entrées GPT-4, à partir de datasets comme GPTeacher, WizardLM, Airoboros et CodeAlpaca. Avec la v2, on est passé à 900 000 entrées. OpenHermes 2.5 devait être une variante « spéciale code », mais il s'est finalement amélioré sur tous les benchmarks pris en considération, exception faite de BigBench. Une version à contexte élargi (16k) est disponible, ainsi que des modèles quantisés (GPTQ, GGUF, AQS, EXL2).
L'auteur de ce modèle est aussi à l'origine de Metal Trismegitus, entraîné sur 10 000 instructions générées par GPT-4 dans le domaine ésotérique / occulte / spirituel.
Today I am releasing Open Hermes 2.5!
This model used the Hermes 2 dataset, with an added ~100k examples of Code Instructions, created by @GlaiveAI!
This model was originally meant to be OpenHermes-2-Coder, but I discovered during the process that it also improved almost every... pic.twitter.com/Ogc5Yy5Jph
- Teknium (e/?) (@Teknium1) November 2, 2023
Yarn-Mistral-7b-128k
Autre modèle entraîné sur contexte long (1500 étapes avec la méthode YaRN). Tâche effectuée sur le superordinateur JUWELS, installé en Allemagne.
128K Context for Mistral 7B is here!
Join Nous Research's discord to discuss!https://t.co/IapJb8C5YU https://t.co/Ts047I2ae5
- Nous Research (@NousResearch) November 2, 2023
dragon-mistral-7b
Modèle de la série dRAGon (Delivering RAG On...), entraîné pour fournir des réponses courtes à des questions factuelles sur des documents business et juridiques.
Ashhwriter-Mistral-7B
Modèle de complétion entraîné, sur un format proche du non supervisé, à partir de 315 Mo de littérature érotique amateur. Sur cette base, il existe une adaptation de LimaRP (variante de LLaMA-2 axée jeu de rôle).
Sur le même thème
Voir tous les articles Data & IA