Navigateurs : les LLM locaux expérimentés sur Opera One
Publié par La rédaction le - mis à jour à
L’éditeur d’Opera One expérimente l’exécution de LLM locaux en remplacement de l’IA Aria intégrée au navigateur.
Le navigateur web, interface idéale pour exécuter des LLM locaux ? On peut désormais expérimenter une telle fonctionnalité sur le canal dev d'Opera One.
Pour le moment, les modèles téléchargés (150 variantes disponibles, d'une cinquantaine de familles) remplacent l'IA « native » Aria dans le panneau latéral de discussion. Un menu déroulant permet d'en sélectionner un.
L'éditeur - à capitaux chinois - d'Opera One promet que les données traitées restent en local. Il met en avant trois modèles en particulier : Phi-2 de Microsoft, Mixtral de Mistral AI... et toutes les variantes de Code Llama (7, 13 et 34 millions de paramètres, en versions Code, Instruct, Python).
Une réflexion est en cours pour combiner - toujours en local - ces LLM et l'historique de navigation. Du côté de la communauté, on imagine déjà des connexions avec les extensions Opera ou la possibilité de spécifier ses propres endpoints.
À consulter en complément :
Quel LLM pour coder en cobol ? Un benchmark spécifique émerge
Comment le Crédit Mutuel a internalisé ses IA génératives
Yann Le Cun : « Le futur de l'IA n'est pas dans les LLM, mais dans l'IA guidée par les objectifs »
Des serveurs IA cyberattaqués : la framework Ray comme vecteur
Databricks, un vitrine de plus pour Mistral AI
Grok est-il vraiment un LLM « ouvert » ?
Photo d'illustration © Jamie - Adobe Stock