Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en sont les tenants et les aboutissants ?
![Hugging Face LLM leaderboard](https://www.silicon.fr/wp-content/uploads/2024/06/Hugging-Face-LLM-leaderboard-120x90.jpeg)
Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en sont les tenants et les aboutissants ?
Stanford a récemment actualisé son index de transparence des LLM, l'étendant à 14 fournisseurs dont Mistral AI. Les critères n'ont pas changé ; la méthode, si.
Voici quelques morceaux choisis d'une synthèse émanant de Stanford sur l'état de la recherche en matière de « désapprentissage machine ».
L'éditeur d'Opera One expérimente l'exécution de LLM locaux en remplacement de l'IA Aria intégrée au navigateur.
Apple donne un aperçu supplémentaire de ses travaux LLM multimodaux avec un article consacré à leur entraînement.
Des chercheurs attirent l'attention sur une attaque qui a permis d'extraire des informations dans la dernière couche de LLM en boîte noire.
Il y a quelques semaines, Stanford publiait son « index de transparence des modèles de fondation ». Retour sur les points faibles qui en ressortent.
Des chercheurs d'Apple proposent un modèle d'inférence adapté aux environnements dont les ressources mémoire sont restreintes.
Silicon.fr a relayé, cette année, quelques études sur le sujet des LLM. En voici un pot-pourri.
Les LLM, une option pour identifier les causes racines et suggérer des plans de remédiation ? C'est l'objet d'une étude.
Une étude compare la performance environnementale entre modèles généralistes et modèles spécialisés. En voici les conclusions.
Mozilla soutient le projet llamafile, qui propose un format de type exécutable portable pour distribuer les LLM.
Voilà deux mois que Mistral AI a publié son premier LLM ouvert. Coup d'œil sur une vingtaine de variantes qui ont émergé sur Hugging Face.
Des chercheurs proposent d'améliorer les capacités d'autocorrection des LLM par une méthode de backtracking fondée sur un modèle auxiliaire.
L'expérience MemGPT propose d'élargir la fenêtre de contexte des LLM en les dotant d'une gestion mémoire et d'un contrôle de flux inspiré des OS.
Au-delà des éléments proposés sous la bannière GitHub Copilot, les LLM portent, notamment, des fonctionnalités de sécurité.
Si A=B, alors B=A ? Pour les LLM, assimiler cette relation n'est pas si évident, démontre une étude universitaire.