Catégoriser les menaces contre les systèmes de machine learning : c’est l’objectif du projet open source Adversarial ML Threat Matrix.
L’organisation américaine MITRE, connue notamment pour maintenir le dictionnaire de vulnérabilités de sécurité CVE, supervise la démarche. Airbus, Bosch, IBM, Microsoft, NVIDIA et PwC sont les principales entreprises à s’y être jointes.
L’initiative s’inspire du framework ATT&CK, qui fait office de base de connaissances sur les menaces contre les logiciels. Elle en reprend la structure et la terminologie. Avec toutefois quelques différences. Notamment un code couleur qui distingue les techniques spécifiques aux modèles d’IA (en orange).
La matrice s’accompagne de « cas d’étude » sur des systèmes de production. Entre autres :
Toute démonstration d’une attaque qui affecte l’intégralité, la confidentialité ou la disponibilité des systèmes de machine learning est susceptible de rejoindre cette liste.
En la matière, on se souviendra de l’IA Inception de Google pour la reconnaissance d’images, trompée par la rotation d’objets. Ou encore du pilote automatique de Tesla, perturbé en conditions réelles dans l’identification du marquage au sol par la présence de morceaux d’adhésif blanc sur la chaussée.
Illustration principale © zapp2photo – Fotolia
Dans un avis consultatif, l'Autorité de la concurrence a identifié les risques concurrentiels liés à…
OpenAI signe un « partenariat de contenu stratégique » avec Time pour accéder au contenu…
Au lendemain du rejet de sa proposition de restructuration, David Layani annonce sa démission du…
Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en…
Mozilla commence à expérimenter divers LLM dans Firefox, en parallèle d'autres initiatives axées sur l'intégration…
VMware met VCF à jour pour y favoriser la migration des déploiements qui, sur le…