IA : avec le règlement européen, quel sort pour l’open source ?

Sous les présidences slovène puis française, le Conseil de l’UE a proposé d’introduire explicitement la notion d’open source dans le futur « règlement IA ». Sous quelle forme et avec quelles conséquences potentielles ?

Dans le domaine de l’IA, la future régulation européenne sera-t-elle contreproductive pour les projets open source ? La Brookings Institution l’affirme.

Les dispositions que dénonce le think tank américain ne sont pas présentes dans la proposition de règlement que la Commission a publiée en avril 2021. Il s’agit de modifications qu’envisage le Conseil de l’UE.

Ce dernier avait émis une première proposition de compromis en novembre 2021, sous la présidence slovène. Elle était partielle, couvrant les articles 1 à 7 et les annexes I à III. Une version complète a finalement été publiée le 15 juin 2022, sous la présidence française. C’est là qu’est apparue la notion d’open source.

En toile de fond, un changement plus large : l’introduction d’une catégorie de systèmes IA « génériques » (general purpose). Lesquels seraient soumis aux exigences du règlement dès lors qu’ils seraient jugés « à haut risque » ou qu’ils entreraient dans la composition de tels systèmes.

Des mesures pour les IA « génériques »…

Sous la présidence slovène, le Conseil de l’UE avait notamment introduit un considérant 70a. Objectif : clarifier le rôle des personnes susceptibles de contribuer au développement de systèmes IA couverts par le règlement sans en être les « fournisseurs ».

Dans les grandes lignes, ce considérant posait que :

– L’IA « générique » ne devrait pas relever de la notion de « finalité prévue » entendue au sens du règlement
– La mise sur le marché ou la mise en service de tels systèmes ne devrait donc pas être soumise au règlement
– Elle devrait en revanche l’être dans le cas où une personne apposerait son nom ou sa marque sur un de ces systèmes, ou bien que la mise sur le marché se fait avec une « finalité prévue »
– Les tiers susceptibles de fournir des outils logiciels et des composants de type données ou modèles préentraînés coopéreront avec les fournisseurs et les utilisateurs pour assurer la conformité

Toutes ces mesures englobent explicitement les IA open source (voir ci-dessous, avec traduction approximative).

IA générique open source
« La mise sur le marché, la mise en service ou l’usage d’un système IA générique, qu’il soit open source ou non… »

Parallèlement au considérant 70a, le Conseil de l’UE avait ajouté l’article 52a, consacré aux IA génériques. Y apparaît à nouveau – au paragraphe 4 – une mention de l’open source, encore plus explicite.

52a
« Les dispositions de cet article devraient s’appliquer que le système IA générique soit ou non open source. »

… y compris open source ?

La version consolidée du 15 juin 2022 supprime le considérant comme l’article. Mais elle ne fait pas disparaître la notion d’open source. Elle glisse simplement dans une nouvelle définition, à l’article 3 : celle des… IA génériques.

general purpose
« ‘Système IA générique’ signifie un système d’IA qui – peu importe comment il est mis sur le marché ou mis en service, y compris en open source… »

La « version française » introduit par ailleurs une section spécifique aux IA génériques (articles 4a, 4b et 4c). Section qui pose les mesures que devront respecter, d’une part, les IA elles-mêmes (premier paragraphe ci-dessous) et, de l’autre, leurs fournisseurs (deuxième paragraphe).

règles IA fournisseurs

La dernière proposition en date, publiée le 15 juillet sous la présidence tchèque, maintient l’ensemble de ces éléments. Et quand bien même elle pose un principe d’exemption des systèmes portant exclusivement la recherche scientifique (considérant 12a), la Brookings Institution déplore un obstacle à l’essor de l’IA open source.

recherche scientifique IA
« Cette régulation ne devrait pas ébranler les activités de R&D et devrait respecter la liberté scientifique. Il est ainsi nécessaire d’exclure de son périmètre les systèmes d’IA spécifiquement développés et mis en service exclusivement à des fins de R&D scientifique… »

Le think tank craint, entre autres, que de telles mesures limitent le contrepoids face aux « gros » du secteur. Qui, de surcroît, sont aujourd’hui les pourvoyeurs des principales briques open source de référence en matière d’IA. Plus globalement, poursuit-il, on se priverait d’un modèle contribuant au développement d’IA « responsables » et à leur meilleure compréhension par le public.

Photo d’illustration © Parlement européen /  CC BY-NC-ND 2.0