IA : 18 pays signent un accord pour une cybersécurité by design
Les États-Unis, le Royaume-Uni, la France et plus d'une douzaine d'autres pays ont signé un accord visant à renforcer la cybersécurité de l'intelligence artificielle (IA).
Signé ce dimanche 26 novembre, il s'agit du premier accord international détaillé sur la manière de protéger l'intelligence artificielle des acteurs malveillants, poussant les entreprises à créer des systèmes d'IA « sécurisés dès leur conception », selon la directrice de la U.S Cybersecurity and Infrastructure Security Agency (CISA).
À cette fin, l'Agence américaine de cybersécurité et de sécurité des infrastructures (CISA) et le National Cyber Security Centre (NCSC) du Royaume-Uni ont publié « de nouvelles lignes directrices pour le développement de systèmes d'IA sécurisés qui aideront les développeurs de tout système utilisant l'IA à prendre des décisions éclairées en matière de cybersécurité à chaque étape. du processus de développement.
Lire aussi : L'IA et l'IA générative devraient transformer la cybersécurité de la plupart des organisations
Les lignes directrices, signées par des agences de 18 pays *, souhaitent « élever les niveaux de cybersécurité de l'intelligence artificielle et contribuer à garantir qu'elle est conçue, développée et déployée en toute sécurité ».
Pour la France, l'ANSSI est signataire mais aucune communication officielle n'a été diffusée.
« La publication des lignes directrices pour le développement de systèmes d'IA sécurisés marque une étape clé dans notre engagement collectif - de la part des gouvernements du monde entier - à garantir le développement et le déploiement de capacités d'intelligence artificielle sécurisées dès leur conception », a déclaré Jen Easterly, directrice de la CISA.
L'accord non contraignant contient principalement des recommandations générales telles que la surveillance des systèmes d'IA contre les abus, la protection des données contre la falsification et le contrôle des fournisseurs de logiciels.
Augmenter la sécurité de l'IA
Cependant, il n'aborde pas les utilisations appropriées de l'IA ni la manière dont les données sous-jacentes sont collectées. L'accord cherche à répondre aux questions sur la manière d'empêcher la technologie de l'IA d'être détournée par des pirates informatiques, et inclut des recommandations telles que la publication de modèles uniquement après des tests de sécurité appropriés.
Il intervient peu de temps après la tenue du premier sommet mondial sur la sécurité de l'IA à Bletchley Park au Royaume-Uni.
Lire aussi : { Tribune Expert } - Règlement sur l'Intelligence artificielle : vision holistique et éthique de l'innovation
Les 28 pays participants, dont les États-Unis, le Royaume-Uni, l'UE et la Chine, ont signé la « Déclaration de Bletchley », qui aborde les risques potentiels posés par l'intelligence artificielle.
La Déclaration de Bletchley est la première déclaration internationale sur l'IA, après que les pays ont tous convenu que l'intelligence artificielle représente un risque potentiellement catastrophique pour l'humanité.
L'Union européenne a adopté son propre projet.
Avec Tom Jowitt, Silicon.co.uk
* États-Unis, Grande-Bretagne, Australie, Canada, Allemagne, France, Italie, Japon, Norvège, Corée du Sud, République tchèque, Estonie, Pologne, Chili, Israël, Nigeria et Singapour.
Sur le même thème
Voir tous les articles Cybersécurité