AI Act : l'UE à la recherche de cas pratiques
La Commission européenne sollicite des exemples concrets de systèmes entrant dans le périmètre de l'AI Act, en particulier des usages que le texte interdit.
Avez-vous besoin de clarifications sur la manière dont l'AI Act s'articule avec d'autres textes de l'UE ?
C'est, dans les grandes lignes, la question sur laquelle se referme une consultation publique que le Bureau européen de l'IA vient de lancer. Elle court jusqu'au 11 décembre 2024. Il doit en résulter des recommandations concernant deux éléments qui seront l'un et l'autre applicables au 2 février 2025. D'une part, la définition de "système d'IA" (article 3.1 + considérant 12). De l'autre, les pratiques interdites en matière d'IA (article 5).
L'article 3.1 définit un système d'IA comme :
- Système automatisé
- Conçu pour fonctionner à différents niveaux d'autonomie
- Pouvant faire preuve d'une capacité d'adaptation après son déploiement
- Ayant des objectifs explicites ou implicites
- Qui déduit, à partir des entrées qu'il reçoit, la manière de générer des sorties (prédictions, contenu, recommandations ou décisions pouvant influencer les environnements physiques ou virtuels)
Ce dernier point - le capacité d'inférence - est ce qui différencie essentiellement les systèmes d'IA des "systèmes logiciels ou des approches de programmation traditionnels plus simples" (considérant 12).
La Commission européenne estime plus globalement que la notion de système d'IA ne devrait pas englober les systèmes basés sur des règles définies uniquement par des personnes physiques dans le but d'exécuter automatiquement des opérations. L'utilisation de méthodes statistiques comme la régression lui pose davantage de problèmes. Aussi sollicite-t-elle des exemples de tels systèmes logiciels ou approches de programmation "plus simples" qui n'entreraient pas dans le périmètre de l'AI Act. En parallèle, elle s'enquiert de l'éventuelle nécessité de clarifier le considérant 12. Lequel spécifie, entre autres, que :
- Les objectifs peuvent être différents de la destination dans un contexte spécifique
- La faculté d'adaptation dont un système d'IA pourrait faire preuve après son déploiement est liée à des capacités d'autoapprentissage
Sur les pratiques interdites, l'UE cherche "du concret"
Pour chacune des pratiques interdites (article 5.1), la consultation reprend les mêmes questions : y a-t-il des éléments à clarifier et avez-vous des exemples concrets de systèmes d'IA qui correspondent ou pour lesquels vous auriez besoin de précisions ?
Ces pratiques comprennent, pour rappel :
- Techniques subliminales ou techniques délibérément manipulatrices ou trompeuses
- Évaluation de vulnérabilités dues à l'âge, au handicap ou à la situation sociale ou économique
- Évaluation ou classification de personnes physiques (social scoring)
- Prédiction du risque de commission d'une infraction pénale
- Moissonnage non ciblé d'images faciales pour constituer des bases de données
- Inférence des émotions sur le lieu de travail et dans les établissements d'enseignement (avec exceptions)
- Catégorisation biométrique (avec exceptions)
- Identification biométrique à distance en temps réel à des fins répressives dans des espaces accessibles au public (avec exceptions)
Le Bureau européen de l'IA dédie une question à l'essentiel du reste de l'article 5. Celui-ci définit les conditions dans lesquelles peuvent s'exercer les identifications biométriques en question (objectifs poursuivis, mécanismes de notification et d'autorisation préalables, prérogatives des États membres...)
Illustration générée par IA
Sur le même thème
Voir tous les articles Data & IA