Pour gérer vos consentements :

Navigateurs : les LLM locaux expérimentés sur Opera One

Publié par La rédaction le - mis à jour à

L’éditeur d’Opera One expérimente l’exécution de LLM locaux en remplacement de l’IA Aria intégrée au navigateur.

Le navigateur web, interface idéale pour exécuter des LLM locaux ? On peut désormais expérimenter une telle fonctionnalité sur le canal dev d'Opera One.

Pour le moment, les modèles téléchargés (150 variantes disponibles, d'une cinquantaine de familles) remplacent l'IA « native » Aria dans le panneau latéral de discussion. Un menu déroulant permet d'en sélectionner un.

L'éditeur - à capitaux chinois - d'Opera One promet que les données traitées restent en local. Il met en avant trois modèles en particulier : Phi-2 de Microsoft, Mixtral de Mistral AI... et toutes les variantes de Code Llama (7, 13 et 34 millions de paramètres, en versions Code, Instruct, Python).

Une réflexion est en cours pour combiner - toujours en local - ces LLM et l'historique de navigation. Du côté de la communauté, on imagine déjà des connexions avec les extensions Opera ou la possibilité de spécifier ses propres endpoints.

À consulter en complément :

Quel LLM pour coder en cobol ? Un benchmark spécifique émerge
Comment le Crédit Mutuel a internalisé ses IA génératives
Yann Le Cun : « Le futur de l'IA n'est pas dans les LLM, mais dans l'IA guidée par les objectifs »
Des serveurs IA cyberattaqués : la framework Ray comme vecteur
Databricks, un vitrine de plus pour Mistral AI
Grok est-il vraiment un LLM « ouvert » ?

Photo d'illustration © Jamie - Adobe Stock

La rédaction vous recommande