Recherche

IA générative : 7 entrepreneurs français qui vont faire 2024

Hugging Face, LightOn et Mistral AI sont des start-up françaises en pointe dans la GenAI. Qui sont les 7 entrepreneurs qui vont challenger OpenAI en 2024 ? Portraits.

Publié par Clément Bohic le | Mis à jour le
Lecture
11 min
  • Imprimer
IA générative : 7 entrepreneurs français qui vont faire 2024

Clément Delangue, 35 ans, directeur général et cofondateur de Hugging Face

« Clément Delangue [...] faisait partie du même incubateur que moi. Il y a six ans, il est parti aux États-Unis pour monter un nouveau projet dans l'intelligence artificielle (un chatbot pour discuter avec des adolescents). Et les débuts ont été difficiles. [...] Et puis, le 11 mars 2021, [je] découvre que l'entreprise de Clément vient de lever 40 millions de dollars ! [...] Le chatbot pour les adolescents n'existe plus et a été remplacé par la plus grande communauté au monde de chercheurs spécialisés dans le traitement du langage naturel. »

Alexandre Dana, cofondateur et coprésident de LiveMentor (formation pour créateurs d'entreprises), est l'auteur de ces lignes. Elles figurent dans son livre Entreprendre et (surtout) être heureux, publié début 2022. L'incubateur en question, c'est celui de l'ESCP Europe. Clément Delangue a effectivement évolué en son sein. Pas avec Hugging Face, mais avec UniShared.

Le service développé sous cette bannière permettait le partage de cours en direct avec prise de notes collaborative. La première « classe expérimentale » s'était déroulée en octobre 2011. Le projet s'inscrivait dans la lignée de VideoNot.es, application Google Drive axée sur la prise de notes à partir de vidéos en ligne. L'un et l'autre sont aujourd'hui en open source.

En parallèle de ces projets, Clément Delangue s'occupait du développement commercial de Moodstocks (reconnaissance d'objets ; acquis par Google en 2016). Il s'impliquait aussi dans l'entrepreneuriat social, en particulier à travers l'association MakeSense et la plate-forme de financement participatif Milaap.

Cette dernière est active en Inde... où Clément Delangue a étudié. À l'Institut indien de gestion de Bangalore, en l'occurrence. Il est aussi passé par University College Dublin et par l'université Charles-III de Madrid, dans le cadre de son master en gestion d'entreprise à l'ESCP. Le tout complété par une formation non diplômante de Stanford en informatique.

Son cursus achevé, Clément Delangue fut directeur marketing de Mention, à l'origine d'un outil de veille sur les réseaux sociaux. Il y côtoyait Arnaud Breton, l'autre cofondateur de UniShared. À cette période, l'intéressé était aussi utilisateur... de Glose, l'application de « lecture sociale » portée par Julien Chaumond, qui allait devenir son associé chez Hugging Face à partir de l'été 2016.

Depuis lors, Clément Delangue a mis ses billes dans diverses start-up de l'IA. Parmi elles, Nomic AI (New York ; explicabilité et accessibilité de l'IA), Flower Labs (Hambourg ; apprentissage fédéré) et Pika (Palo Alto ; édition et création de clips et de légendes à partir d'images fixes).

Julien Chaumond, 40 ans, président et cofondateur de Hugging Face

« Parfois, je doute que les telcos comprennent jamais quelque chose à propos du Web. » Ainsi Julien Chaumond s'exprimait-il voilà quinze ans. C'était l'un de ses premiers tweets. Le natif de Dreux (Eure-et-Loir) était alors dans sa vingtaine, frais émoulu de Stanford, diplômé en génie électrique et en informatique. Sur place, il avait suivi une formation en recherche sur les bases de données. Laquelle complétait son master en mathématiques appliquées de Polytechnique.

Quelques mois plus tard, Julien Chaumond allait intégrer le corps des télécommunications. Et gérer « la coordination des actions publiques en faveur du développement des secteurs du Web et du mobile auprès du ministère de l'Economie et du secrétariat d'Etat au développement de l'économie numérique ». Il le présente en tout cas ainsi sur son blog, où le dernier article remonte à l'automne 2012. C'était sa période d'« entrepreneur et consultant dans les domaines du Web et e-commerce », marquée par la publication d'un livre (Social commerce : quand le e-commerce rencontre le Web d'aujourd'hui).

Entre deux articles sur le bouton « J'aime » d'Amazon et sur le « post-purchase sharing » chez Voyages-SNCF, on trouve trace de sa start-up Prodcast - devenue ensuite Productism -, « site social ou les utilisateurs [...] commentent et se recommandent des produits ». Au printemps 2013, il en parlait au passé dans un de ses premiers articles sur Medium, consacré à la « quête du cofondateur idéal ». Son nouveau projet entrepreneurial était alors en marche : une « plate-forme sociale pour la lecture d'e-books », appelée Glose. « Vous pouvez très facilement surligner, archiver, partager et annoter du texte », expliquait-il encore fin 2014, en anglais dans le texte, sur Facebook.

Changement d'univers en 2015, en tant qu'ingénieur logiciel pour Stupeflix, start-up à l'origine d'une app mobile de création de clips assistée par IA... et sur laquelle GoPro allait mettre la main en 2016. Julien Chaumond allait quant à lui revenir pour un temps dans la sphère publique, comme conseiller auprès du ministre délégué au numérique. L'aventure Hugging Face allait ensuite commencer. D'abord en France puis, à partir de l'été 2017, aux États-Unis.

Des articles scientifiques dont Julien Chaumond est coauteur avec l'équipe Hugging Face, le plus cité sur Google Scholar est daté de 2019. Il est relatif à DistilBERT, un « petit » modèle de langage généraliste entraîné par distillation et spécialisable sur un grand nombre de tâches. Suivent, de la même année, ceux qui traitent respectivement de la bibliothèque Transformers de Hugging Face et d'une approche associant ce type d'architecture à l'apprentissage par transfert pour entraîner des chatbots multitâches.

Laurent Daudet, 51 ans, directeur général et cofondateur de LightOn

Un court message pour une annonce rétrospectivement importante : le 1er septembre 2016, Laurent Daudet prenait officiellement congé de l'université Paris Diderot - où il enseignait la physique - pour se consacrer à plein temps à la start-up LightOn, en tant que CTO.

Le natif de Dunkerque allait rester, jusqu'en 2017, coordinateur du groupe de travail Enseignement supérieur et Recherche au sein du think tank Terra Nova. Depuis lors, il a publié son premier livre, avec le dessinateur George Mathan : le roman graphique Dream Machine ou comment j'ai failli vendre mon âme à l'intelligence artificielle, paru chez Flammarion.

Soutenue en 2000 dans la lignée d'un master de physique à l'ENS, sa thèse de doctorat en mathématiques appliquées à l'université d'Aix-Marseille a porté sur la représentation numérique des signaux audiophoniques. Certains de ses articles les plus populaires - en nombre de citations Google Scholar - ont trait à ce même champ disciplinaire. Ils touchent, entre autres, à la détection de l'attaque (IEEE, 2005) et à l'usage de la représentation parcimonieuse (IEEE, 2009). Le plus cité, rédigé avec des collègues des universités de New York, Jérusalem, Paris-Saclay et de l'Institut Max-Planck d'optique quantique, traite de l'interface entre machine learning et sciences physiques.

Ancien membre honoraire de l'Institut universitaire de France, Laurent Daudet a aussi enseigné, entre autres, à l'université Pierre et Marie Curie.

Igor Carron, 58 ans, président et cofondateur de LightOn

Le 4000e post en mars 2016, les 6 millions de pages vues un an plus tard... Igor Carron aime tenir les comptes de Nuit Blanche.

Sur ce blog technique ouvert voilà vingt ans, le natif d'Oullins (Rhône) a notamment parlé d'acquisition comprimée et de factorisation de matrices. Il a aussi abordé, entre autres sujets, l'apprentissage automatique. Y compris pour relater des réunions du meetup Paris Machine Learning, dont il est coorganisateur depuis 2013.

Sur ce même blog, Igor Carron avait fait une brève annonce le 27 juin 2016 : « LightOn, c'est parti. » Il venait de fonder l'entreprise en compagnie de Laurent Daudet, Sylvain Gigan et Florent Krzakala, d'autres scientifiques avec lesquels il avait cosigné divers articles... dont son plus « populaire » sur Google Scholar. Daté de 2014, il traite de l'imagerie compressive fondée sur les propriétés naturelles de la propagation des ondes.

Diplômé de l'Institut polytechnique de Grenoble, Igor Carron avait obtenu, en 1996, un doctorat en génie nucléaire à l'université A&M du Texas. Il était resté sur place jusqu'en 2008, travaillant notamment sur le plutonium militaire en excès, puis dans le domaine spatial (démonstrateurs technologiques à bord de l'ISS, expérimentation StarNav à bord de Columbia...).

Arthur Mensch, 31 ans, président et cofondateur de Mistral AI

« Avec l'équipe @Parietal_INRIA, on décode ce que voit le cerveau ! » Tel est, texto, le plus ancien contenu dont on peut actuellement trouver trace sur le Twitter d'Arthur Mensch. Il date d'octobre 2015. L'intéressé venait alors d'entamer son doctorat. Il soutiendrait, trois ans plus tard, sa thèse, intitulée « Apprentissage de représentations en imagerie fonctionnelle ».

Avant l'université Paris-Saclay, il y avait eu le baccalauréat international - mention très bien - au lycée Vernant de Sèvres (Hauts-de-Seine ; sa ville de naissance), la prépa aux grandes écoles au lycée Hoche de Versailles... puis la voie X-ENS, avec notamment un master MVA (mathématiques, vision, apprentissage). Le tout ponctué d'expériences au Canada (chercheur stagiaire à l'université McGill ; analyse et modélisation de la dynamique et de la géométrie du coeur), au Chili (développeur stagiaire pour la société Option ; réalisation d'une plate-forme d'administration pour un service de publicité ciblée) et au Guatemala.

En 2020, au sortir de son postdoc à l'ENS (transport optimal - optimisation stochastique - apprentissage automatique), Arthur Mensch avait fait son entrée chez DeepMind, dans les labos de Paris. Il y est resté jusqu'en mai 2023 et la création de Mistral AI. Depuis lors, le Gouvernement l'a nommé membre de son comité de l'intelligence artificielle générative.

Son article le plus populaire en nombre de citations Google Scholar date de 2022. Il traite de Flamingo, famille de modèles de vision adaptables à de nouvelles tâches à partir d'un petit nombre d'exemples. Suivent des articles qui concernent respectivement l'optimisation de l'entraînement des LLM (2022) et l'évolution de leurs performances en fonction de l'échelle.

Guillaume Lample, 33 ans, co-DG et cofondateur de Mistral AI

« A commencé à travailler chez AI at Meta ».
L'événement est gravé sur le Facebook de Guillaume Lample, en date du 24 août 2016. Le natif de Brest connaissait bien la maison pour y avoir oeuvré en qualité de stagiaire en 2014 puis en 2015, dans le cadre d'un master en intelligence artificielle à Carnegie Mellon. Il y revenait pour son doctorat (université Pierre et Marie Curie), ponctué d'une thèse sur la traduction automatique.

Avant l'ère Carnegie, Guillaume Lample avait effectué une double majeure en mathématiques et informatique à Polytechnique (promo X11). Facebook - puis Meta - AI est resté son cadre d'exercice jusqu'en mai 2023 et la création de Mistral AI. Ses articles scientifiques les plus populaires - sur la foi du nombre de citations Google Scholar - ont tous été publiés pendant cette période. Ils abordent, entre autres sujets, des architectures neuronales pour la reconnaissance d'entités, une méthode d'entraînement multilingue... et les modèles de fondation LLaMA.

Joueur d'échecs (meilleur ELO : 1923), Guillaume Lample aura côtoyé, dans les rangs de Facebook/Meta, des chercheurs comme Alexandre Défossez et Neil Zeghidour, tous deux aujourd'hui chez Kyutai.

Timothée Lacroix, 32 ans, co-DG et cofondateur de Mistral AI

Médaille de bronze, deuxième meilleur Français. Tel fut le résultat de Timothée Lacroix en 2009 aux Olympiades internationales d'informatique.

Deux ans plus tard, le natif d'Épinal (Vosges) intégrait Normale Sup', pour une formation qui allait le voir passer, entre autres, par le CALab (Computer Audition Laboratory) de l'université de Californie à San Diego. Mais aussi par le Japon, dont il aura partagé, pendant un temps, quelques morceaux choisis, sur son blog « Patatim ».

Sa première expérience chez Facebook - un stage début 2014 - l'amena à travailler sur la recherche sémantique, à Londres. Il y retourna en 2015, sur la partie recherche en intelligence artificielle... pour y rester jusqu'à la création de Mistral AI. Entre-temps, il soutint, en 2020, sa thèse en traitement du signal et des images, intitulée « Décompositions tensorielles pour la complétion de bases de connaissance » (université Paris-Est).

Membre de la communauté Tech.Rocks, Timothée Lacroix a participé à l'article présentant la famille de modèles LLaMA. C'est le plus populaire de ceux qu'il a cosignés (là encore, sur le critère du nombre de citations Google Scholar), devant un article de 2019 sur le système de vectorisation Pytorch-biggraph.

Illustration principale générée par IA

Livres Blancs

Voir tous les livres blancs
S'abonner
au magazine
Se connecter
Retour haut de page