AI Safety Summit 2023 : Royaume-Uni, États-Unis, Chine et UE signent une déclaration sur le danger de l'IA
Dans la Déclaration de Bletchley, 28 pays s'accordent sur le fait que l'intelligence artificielle présente un risque potentiellement catastrophique pour l'humanité. Le prochain IA Safety Summit se déroulera dans six mois en Corée du Sud.
Vingt-huit gouvernements *, incluant le Royaume-Uni, les États-Unis, l'UE, l'Australie et la Chine, ont signé la déclaration dite de Bletchley le premier jour du IA Safety Summit, qui s'est tenu les 1er et 2 novembre, organisé par le gouvernement britannique dans le comté du Buckinghamshire.
La Déclaration de Bletchley est la première déclaration internationale qui aborde les risques potentiels posés par l'intelligence artificielle considérant même un risque potentiellement catastrophique pour l'humanité.
The Bletchley Declaration agreed at the AI Safety Summit, highlights the importance of human-centricity. Human centric is mentioned right at the start.
But what does human-centricity mean? It means seeing people-their values and experiences-as most important.
#aisafetysummit pic.twitter.com/JgmSnNwT9C- AI Safety Summit (@AISafetySummit) November 2, 2023
Lire aussi : L'IA et l'IA générative devraient transformer la cybersécurité de la plupart des organisations
La Déclaration de Bletchley
« L'intelligence artificielle (IA) présente d'énormes opportunités à l'échelle mondiale : elle a le potentiel de transformer et d'améliorer le bien-être humain, la paix et la prospérité », indique la déclaration. « Pour y parvenir, nous affirmons que, pour le bien de tous, l'IA doit être conçue, développée, déployée et utilisée de manière sûre, de manière à être centrée sur l'humain, digne de confiance et responsable. »
« Parallèlement à ces opportunités, l'IA présente également des risques importants, y compris dans les domaines de la vie quotidienne », peut-on lire. « Des risques substantiels peuvent découler d'une utilisation abusive intentionnelle potentielle ou de problèmes de contrôle involontaires liés à l'alignement avec l'intention humaine. »
« Ces problèmes sont en partie dus au fait que ces capacités ne sont pas entièrement comprises et sont donc difficiles à prédire », indique la déclaration. « Nous sommes particulièrement préoccupés par ces risques dans des domaines tels que la cybersécurité et la biotechnologie, ainsi que par les domaines dans lesquels les systèmes d'IA frontaliers peuvent amplifier des risques tels que la désinformation. Il existe un potentiel de dommages graves, voire catastrophiques, délibérés ou non, découlant des capacités les plus importantes de ces modèles d'IA.»
« De nombreux risques découlant de l'IA sont intrinsèquement de nature internationale et il est donc préférable de les gérer par la coopération internationale », indique le texte. « Nous sommes déterminés à travailler ensemble de manière inclusive pour garantir une IA centrée sur l'humain, fiable et responsable, sûre et qui soutient le bien de tous par le biais des forums internationaux existants et d'autres initiatives pertinentes, afin de promouvoir la coopération pour faire face au large éventail de risques posés. par l'IA.»
Lire aussi : { Tribune Expert } - Règlement sur l'Intelligence artificielle : vision holistique et éthique de l'innovation
Focus sur les dangers de l'IA
Les signataires ont convenu que la lutte contre les risques liés à l'IA se concentrera sur deux actions principales :
> Identifier les risques de sécurité de l'IA d'intérêt commun, construire une compréhension scientifique et factuelle commune de ces risques et maintenir cette compréhension à mesure que les capacités continuent de croître, dans le contexte d'une approche mondiale plus large visant à comprendre l'impact de l'IA dans nos sociétés.
> Elaborer des politiques respectives basées sur les risques dans nos pays pour garantir la sécurité à la lumière de ces risques, en collaborant le cas échéant tout en reconnaissant que nos approches peuvent différer en fonction des circonstances nationales et des cadres juridiques applicables. Cela comprend, outre une transparence accrue de la part des acteurs privés développant des capacités d'IA de pointe, des mesures d'évaluation appropriées, des outils de test de sécurité et le développement de capacités pertinentes du secteur public et de la recherche scientifique.
La Corée du Sud a accepté d'accueillir un autre sommet de ce type dans six mois, tandis que la France en accueillera un dans un an.
Tom Jowitt, Silicon.co.uk
* Australie, Brésil, Canada, Chili, Chine, Union européenne, France, Allemagne, Inde, Indonésie, Irlande, Israël, Italie, Japon, Kenya, Royaume d'Arabie Saoudite, Pays-Bas, Nigeria, Philippines République de Corée, Rwanda, Singapour, Espagne, Suisse, Turquie, Ukraine, Emirats Arabes Unis, Royaume-Uni, Etats-Unis
Sur le même thème
Voir tous les articles Actualités