Recherche

L’avenir de l’IA passe par l’open source

Les lignes de code source ouvertes permettent aux utilisateurs de comprendre et de contrôler comment les algorithmes d’IA fonctionnent et quelles sources sont exploitées, ce qui renforce la confiance dans la technologie.

Publié par le - mis à jour à
Lecture
6 min
  • Imprimer
L’avenir de l’IA passe par l’open source

L’open source repose sur la collaboration et la transparence au sein d’une communauté. Grâce à ces deux avantages indéniables, les solutions ouvertes ont le potentiel de révolutionner la manière dont les systèmes d’IA sont développés et déployés. Il est essentiel d’adopter une approche ouverte de l’IA.

Si l’intelligence artificielle est encore bien loin de la singularité technologique, elle a influencé de manière radicale tous les secteurs d’activité et la société dans son ensemble, du moins à partir de l’émergence de modèles d’IA de grande taille, connus sous le nom de « modèles de fondation ». Toutefois, l’entraînement de ces modèles nécessite des quantités considérables de données et des datacenters puissants, qui ne sont généralement accessibles qu’aux très grands acteurs sur le marché.

D’un autre côté, les modèles de fondation sont relativement faciles à adapter en fonction des besoins de l’entreprise, ce qui permet de réduire le coût initial lié à l’entraînement des modèles et d’accélérer la création de valeur.

Pour éviter le monopole de quelques-uns, il est nécessaire de prendre le contrepoint, dans ce cas une approche open source. Après tout, les technologies ouvertes s’accompagnent de nombreux avantages, en favorisant notamment la transparence, l’innovation et la sécurité.

La confiance via la transparence

L ’AI Alliance, qui compte notamment parmi ses membres IBM, Intel, Red Hat et Meta, s’efforce d’améliorer la transparence de d’intelligence artificielle grâce à une connaissance ouverte et un transfert de technologies, renforçant ainsi la confiance des entreprises et de la société dans les possibilités offertes par cette technologie.

En parallèle, l’Open Source Initiative (OSI) se consacre à créer une définition de travail commune. À ce jour, les opinions varient considérablement lorsqu’il s’agit de définir ce qui constitue une IA ouverte. Quoi qu’il en soit, l’intelligence artificielle gagne à adopter des concepts-clés issus du monde de l’open source.

Les lignes de code source ouvertes permettent aux utilisateurs de comprendre et de contrôler comment les algorithmes d’IA fonctionnent et quelles sources sont exploitées, ce qui renforce la confiance dans la technologie. Il s’agit d’un aspect particulièrement important dans des secteurs comme la santé et la finance, où la confiance via la transparence revêt une importance essentielle.

L’innovation via la collaboration

Grâce aux modèles d’IA open source, les développeurs s’appuient sur des architectures et des cadres existants, ce qui stimule le développement et l’itération rapide de nouveaux modèles. Il en découle que les entreprises peuvent mettre en place des applications innovantes sans avoir à réinventer la roue à chaque fois.

Lorsque les acteurs sont plus nombreux à avoir accès aux matériaux bruts, ils sont en mesure d’approfondir une grande variété d’idées et de mettre en œuvre des projets véritablement créatifs. Dans le meilleur des cas, le logiciel open source devient la référence sur le marché : les entreprises peuvent alors bâtir leurs produits sur les piles technologiques fournies par les meilleurs fournisseurs sur le marché.

Tout le monde est ainsi en mesure d’en bénéficier en incorporant les améliorations apportées par les uns et les autres au sein de leur IA. Cela joue un rôle de catalyseur pour la compétition et l’innovation, qui profite également aux acteurs les plus modestes.

La sécurité via le principe du « travail à quatre yeux »

En raison de l’essor fulgurant de l’IA générative, les débats sur les dangers liés à cette technologie s’intensifient. En effet, ces systèmes peuvent être exploités à mauvais escient afin de répandre de fausses informations ou de s’engager dans des activités frauduleuses en manipulant le discours, les images ou les vidéos.

On peut se demander si une approche open source – en permettant à des criminels d’obtenir des informations sur le fonctionnement des algorithmes d’IA, par exemple – ne permettrait pas de contrôler ces risques. Les systèmes ouverts s’accompagnent habituellement de garde-fous ou de lignes directrices qui encouragent une utilisation responsable. Néanmoins, une fois qu’un modèle d’IA devient librement accessible, n’importe qui est en mesure de modifier ces mesures de sécurité.

Comme pour toute autre technologie, il est vrai que quiconque souhaite causer préjudice à d’autres est susceptible d’y parvenir, que ce soit au moyen de systèmes ouverts ou propriétaires. Pourtant, le recours à l’open source et à la transparence devrait aider à rendre l’IA plus sécurisée.

Lorsqu’un logiciel est ouvert, il est testé par un plus grand nombre de personnes qui peuvent alors corriger les éventuels problèmes. En outre, des entreprises, des développeurs et des chercheurs issus de différents secteurs d’activité peuvent travailler en collaboration sur ces solutions afin de minimiser les risques.

Dans le même temps, la communauté qui se forme autour de la technologie a besoin de définir des grandes orientations et des mécanismes afin de promouvoir un développement éthique de l’IA.

La démocratisation via un accès ouvert

Grâce à tous les avantages cités ci-dessus, l’open source contribue à la démocratisation de l’intelligence artificielle. En rendant les outils et les ressources accessibles à tous, chacun est en mesure d’en bénéficier.

En raison de la prévalence de plus en plus importante de la technologie, il est plus important que jamais de se rendre à l’évidence : l’IA étant susceptible d’avoir un impact à l’avenir sur presque tous les domaines de la société, son contrôle ne devrait pas rester entre les mains de quelques individus. Une approche open source permet à des personnes issues de milieux socio-économiques extrêmement variés de participer au développement de cette technologie et de façonner ainsi une IA plus juste.

En outre, les pressions de plus en plus importantes en matière de compétitivité en raison de la mondialisation, les cycles de vie des produits raccourcis et la course à l’innovation ne font que renforcer le besoin d’ouvrir les processus au plus grand nombre et de les optimiser.

De nombreuses entreprises ne disposent tout simplement pas des ressources financières ni de l’expertise interne suffisante pour entreprendre des développements révolutionnaires. Par conséquent, il est nécessaire de collaborer avec des partenaires, des fournisseurs ou d’autres entreprises.

Un constat demeure : l’IA représente la technologie-clé par excellence. Afin de développer des modèles d’IA viables, de permettre à un plus vaste panel d’utilisateurs d’accéder aux données d’entraînement et de résoudre les problèmes éthiques urgents, il est essentiel de disposer d’un écosystème fonctionnel.

Même si tout ce qui a trait à l’IA ne repose pas forcément sur les principes de l’open source, la combinaison entre le partage de modèles pré-entraînés au sein de la communauté et des restrictions d’accès aux données d’entraînement représente une solution alternative aux approches propriétaires.

L’IA doit être pensée comme une intelligence d’essaim. Toutes les parties prenantes qui apportent leurs connaissances à l’essaim peuvent apprendre les unes des autres sans être forcées de partager des informations sensibles. L’intelligence d’essaim est une métaphore pertinente dans la mesure où les modèles d’IA spécifiques à certains domaines sont de plus en plus répandus.

Jan Wildeboer, EMEA Evangelist - Red Hat.

Livres Blancs #workspace

Voir tous les livres blancs

Vos prochains événements

Voir tous les événements

Voir tous les événements

S'abonner
au magazine
Se connecter
Retour haut de page