Recherche

GenAI : face à NVIDIA, Intel se tourne vers l'open source

Intel se greffe au projet OPEA OPEA (Open Enterprise Platform for AI) et y pousse des implémentations GenAI optimisées pour ses accélérateurs Gaudi.

Publié par Clément Bohic le | Mis à jour le
Lecture
3 min
  • Imprimer
GenAI : face à NVIDIA, Intel se tourne vers l'open source

Pour exister dans l’IA générative, Intel doit-il miser sur l’open source ? Le voilà en tout cas au cœur d’un projet de cette teneur : OPEA (Open Enterprise Platform for AI).

L’initiative est placée sous l’égide de la Fondation Linux. Elle vise, selon les termes de sa charte technique, à développer un « framework d’orchestration d’écosystème pour l’intégration efficace des technologies de GenAI ».

Intel apparaît comme la tête de pont. Ne serait-ce que par sa communication, doublée du fait qu’OPEA a été annoncé dans le cadre de son événement Open Source Summit North America 2024.

Par ailleurs, les premiers éléments du framework ont une forte coloration Intel. Jusqu'aux implémentations de référence. Toutes sont optimisées pour une exécution sur les accélérateurs Gaudi 2. Parmi eux :

- ChatQnA (chatbot de questions-réponses reposant sur NeuralChat-7B ou Mistral-7B et utilisant du RAG , avec Redis ou Chroma en base vectorielle)

- DocSum (chatbot pour le résumé de texte à partir des mêmes modèles)

- VisualQnA (questions-réponses sur des images ; fondé sur LLaVA-1.5-7B)

- CodeGen (génération de code avec Deepseek-Coder-33B)

Tous ces exemples impliquent LangChain et le toolkit TGI (Text Generation Inference) de Hugging Face.

OPEA, un consortium couleur data

Hugging Face est l'un des 13 membres actuels du projet OPEA. À ses côtés, on retrouve de nombreux fournisseurs de bases de données. SQL pour MariaDB et Yellowbrick Data ; NoSQL pour Cloudera et Redis. Et des « pure players » du vectoriel avec Qdrant et Zilliz.

Les pipelines RAG sont effectivement un point focal d'OPEA. Le projet leur consacre d'ailleurs son premier blueprint.

OPEA comprend également un framework d'évaluation en quatre étapes. Là aussi made in Intel.

De manière générale, les contributions au projet se feront sous licence Apache 2.0. L'identité des membres du comité de pilotage n'est pas encore officialisée.

Domino, Hugging Face, Red Hat et Zilliz sont - comme la Fondation Linux - membres d'une autre initiative née récemment. En l'occurrence, l'AI Alliance. Elle a émergé sous l'impulsion d'IBM et de Meta, en tant que « communauté internationale de développeurs, de chercheurs et d'utilisateurs pour faire avancer l'IA ouverte, sûre et responsable ». Amazon, Google et Microsoft y sont liés à travers le Partenariat sur l'IA (Partnership on AI). Une organisation à but non lucratif qui « s'intéresse aux questions les plus impotantes concernant notre futur avec l'IA ».

Illustration principale © faithie - Adobe Stock

Sur le même thème

Voir tous les articles Data & IA

Livres Blancs #cloud

Voir tous les livres blancs

Vos prochains événements

Voir tous les événements

Voir tous les événements

S'abonner
au magazine
Se connecter
Retour haut de page