AI Act : les grandes lignes de l'accord institutionnel
Les institutions européennes ont trouvé un accord sur l'AI Act. Des modèles de fondation à l'usage répressif de l'IA, en voici quelques lignes directrices.
À l'issue du trilogue sur l'AI Act, que reste-t-il des propositions des eurodéputés ? Le compte rendu du Parlement est en tout cas bien plus bref que celui du Conseil.
After 38 hours of negotiations we have an #AIact.
Europe will lead the way in AI based on human rights, ethics and sustainability. pic.twitter.com/UiuZdVjOqH- Kim van Sparrentak (@kimvsparrentak) December 9, 2023
Le texte objet de l'accord n'est pas public. Il devrait, pour l'essentiel, constituer le « brouillon final » de l'AI Act. Restera à « préciser quelques détails au niveau technique » avant que le Comité des représentants permanents puisse ratifier.
Des désaccords sur l'usage de l'IA à des fins répressives
Le Conseil avait finalisé sa position de négociation en décembre 2022. Le Parlement avait fait de même en juin 2023. Il avait notamment introduit une interdiction des logiciels de reconnaissance des émotions sur le lieu de travail, dans l'éducation, ainsi qu'à des fins répressives et dans le contrôle des migrations. L'accord ne semble avoir retenu que les deux premiers cas, soit ce sur quoi le Conseil était près à transiger.
Lire aussi : AI Act : l'UE à la recherche de cas pratiques
Les eurodéputés ont aussi lâché du lest concernant l'usage de l'identification biométrique à distance dans l'espace public. Ils en voulaient l'interdiction totale. Ils ont finalement accepté des exceptions strictes. Les systèmes n'opérant pas en temps réel ne seront utilisables que pour la recherche d'une cible inculpée ou suspectée de crime grave. Ceux opérant en temps réel seront autorisés, entre autres, pour :
- Recherche ciblée de victimes
- Prévention d'actes terroristes
- Localisation ou identification d'une personne suspectée d'avoir commis un crime parmi une liste spécifique (terrorisme, trafic, meurtre, kidnapping, viol, vol à main armée, participation à une organisation criminelle...)
Le Conseil a aussi réussi à maintenir l'autorisation de déployer un système IA à haut risque sans évaluation préalable en cas d'urgence.
L'AI Act interdit l'usage de systèmes de catégorisation biométriques reposant sur des caractéristiques sensibles. Même chose pour les techniques de manipulation, la notation sociale ou le scraping massif d'images contenant des expressions faciales. Le Parlement avait proposé une liste plus longue, mais a là aussi accepté un compromis.
Mistral AI face à la régulation des modèles de fondation
L'encadrement des modèles de fondation est un autre point de débat. La France, comme l'Allemagne et l'Italie, prône une régulation moins « dure » que ne le fait le Parlement. Ce « camp de l'innovation », Thierry Breton l'a pointé du doigt, l'accusant de « défendre son business et non l'intérêt général ».
Mistral AI fait partie de ce camp. Son président-cofondateur Arthur Mensch a récemment clarifié son point de vue sur l'AI Act. Les grandes lignes de son raisonnement sont les suivantes :
Lire aussi : { Tribune Expert } - Règlement sur l'Intelligence artificielle : vision holistique et éthique de l'innovation
- Dans sa forme première, l'AI Act était un texte relatif à la sécurité des produits... et cela devrait rester son seul focus. Établir des règles spécifiques en la matière pour les fournisseurs d'applications d'IA les incitera à concevoir des modèles et des outils permettant le développement rapide de produits sûrs.
- Désormais, il est question de réguler les modèles de fondation ; c'est-à-dire le moteur de certaines applications d'IA. Or, difficile de réguler un moteur quand on ne connaît pas ses usages : on n'a pas régulé le langage C parce qu'il était susceptible d'être utilisé pour développer des malwares.
- La notion de « risque systémique » établie dans l'AI Act est mal définie. À ce stade, les discussions à ce sujet sont très philosophiques. Elles anticipent un progrès exponentiel... que les lois de la physique semblent démentir.
- Si on devait suivre cette voie, l'AI Act a la plus mauvaise taxonomie qui soit pour encadrer le risque systémique. Les règles les moins absurdes pour déterminer les capacités d'un modèle seraient une évaluation post-entraînement (mais il faudrait se concentrer sur les applications : il est irréaliste de couvrir, en un test, tous les usages d'un modèle de fondation) et la définition d'un palier de puissance de calcul.
- Introduire un tel palier permet de stimuler l'innovation des petites entreprises. Mais cela entérine aussi l'existence de deux catégories d'entreprises. D'un côté, celles qui peuvent se permettre de faire face à de grandes exigences de conformité et donc de passer à l'échelle. De l'autre, celles qui ne le peuvent, faute d'une armée d'avocats. C'est donc très contre-productif pour l'écosystème qui émerge en Europe.
Les modèles ouverts exclus du champ de l'AI Act... sauf si « systémiques »
Le seuil de compute en question a vraisemblablement été fixé à 10 yottaflops (1025 flops). Il est susceptible d'évoluer. Les modèles entraînés avec une puissance de calcul supérieure sont dits « systémiques ». D'autres pourront l'être en fonction de critères comme le nombre d'utilisateurs professionnels ou le nombre de paramètres.
Les systèmes d'IA « généralistes » et les modèles sous-jacents devront respecter des exigences de transparence (documentation technique, conformité aux lois sur le droit d'auteur, résumés détaillés des données d'entraînement « sans préjudice des secrets commerciaux »...). Ceux dits systémiques auront à subir des évaluations spécifiques, doublées d'obligations de cybersécurité et de rapports sur l'efficacité énergétique.
Les modèles ouverts et gratuits échapperont à l'AI Act. À quelques exceptions près, dont l'aspect droit d'auteur, le résumé des données d'entraînement, les responsabilités sur la chaîne de valeur... et les modèles systémiques.
Sont également hors du champ de l'AI Act, les systèmes utilisés exclusivement à des fins militaires ou de défense. Même chose pour ceux utilisés uniquement à des fins de recherche et d'innovation. Ainsi qu'aux usages non professionnels.
Les sanctions s'élèveraient à :
- 35 M€ ou 7 % du CA annuel (le plus élevé des deux) en cas de déploiement d'une application non autorisée
- 15 M€ ou 3 % du CA pour violation des dispositions de l'AI Act
- 1,5 % du CA pour communication d'informations incorrectes
Il existe des plafonds pour les start-up et les PME, assurent les institutions européennes.
Illustration © Zerbor - Adobe Stock
Sur le même thème
Voir tous les articles Actualités