Vers un répertoire référent des risques liés à l’IA ?

AI Risk Repository IA

Une première version de l’AI Risk Repository a fait son entrée. Elle concrétise un travail collectif – emmené par le MIT – de compilation des risques associés à l’IA.

« À notre connaissance, la première tentative de classification systématique des voies susceptibles d’aboutir à de l’IA malveillante ».

En 2016, Roman V. Yampolsky, de l’université de Louisville (Kentucky), avait publié une taxonomie qu’il présentait ainsi. La matrice sur laquelle elle repose distingue, d’une part, les étapes précédant et suivant le déploiement. De l’autre, les causes internes et externes – respectivement liées à la machine et à l’humain. Pour ces dernières, elle fait la différence entre les actions délibérées, les effets secondaires liés à la conception et les cas liés à l’environnement.

Huit ans plus tard, on en retrouve les fondements dans l’AI Risk Repository. Un postdoc du MIT emmène ce projet qui implique aussi, entre autres, des pairs de la KU Leuven (Belgique), de l’université du Queensland (Australie) et du Future of Life Institute (lobby à l’initiative, début 2023, d’un lettre ouverte appelant à freiner le développement de l’intelligence artificielle).

causes

Environ 800 risques IA répertoriés…

Les porteurs de l’AI Risk Repository le présentent comme « la première tentative de sélection, d’analyse et d’extraction rigoureuse de frameworks sur les risques de l’IA sous la forme d’une base de données publiques, exhaustive, extensible et catégorisée »*.

Cette base de données (au format tableur Google ou Excel) regroupe environ 800 risques, issus d’une quarantaine de sources. Elle permet un filtrage sur la base d’une deuxième taxonomie centrée non pas sur les causes, mais sur les domaines de risques. Elle aussi s’inspire de travaux antérieurs, signés DeepMind. Les domaines en question :

– Discrimination et toxicité
– Vie privée et sécurité
– Désinformation
– Acteurs malveillants
– Interaction homme-machine
– Socioéconomique et environnemental
– Sûreté, échecs et limites des systèmes d’IA

… pour une variété de sources

DeepMind est à l’origine de plusieurs autres productions utilisées pour constituer la base de données. Elles traitent par exemple de l’éthique des assistants IA, des risques sociaux des modèles de langage et de l’évaluation des risques extrêmes de l’intelligence artificielle.

L’essentiel des sources émanent de la sphère académique, avec une nette coloration nord-américaine (Berkeley, Stanford, Carnegie-Mellon, McGill…). Certaines proviennent d’organisations telles que MLCommons, l’Electronic Privacy Information Center, le Center for AI Safety et les Nations unies. Ou de sociétés comme Salesforce, Bytedance (éditeur de TikTok) et Allianz Global & Corporate Security.

Au rang du made in Europe, il y a des universités britanniques (Nottingham, Monfort de Leicester), allemandes (Stuttgart, Darmstadt), néerlandaises (Amsterdam, Érasme de Rotterdam), portugaise (Coïmbre), irlandaise (Dublin), etc. On trouve aussi un cosignataire exerçant à la NEOMA Business School. En l’occurrence, Indranil Bose, professeur éminent et responsable du Pôle d’excellence en IA, sciences des données et affaires.

L’Orient est également représenté. Avec, notamment, des contributions issues d’Inde (Instituts de gestion de Jaipuria et de Murshidabad), d’Iran (universités d’Amirkabir et de Kachan), de Chine (universités Tshingua et de Chengdu), des Émirats arabes unis (université Mohammed ben Zayed) et de Hong Kong (université de Kowloon).

L’AI Risk Repository privilégie la clarté et la simplicité aux nuances, ce qui peut se révéler une limite, admettent ses auteurs. Les taxonomies retenues ne tiennent par ailleurs pas compte d’éléments potentiellement importants tels que la probabilité et l’impact des risques.

* On aura noté qu’il existe déjà une AI Risk Database, une AI Vulnerability Database et un AI Tracker.

Illustration principale générée par IA