Pour gérer vos consentements :

AI Safety Summit 2023 : Royaume-Uni, États-Unis, Chine et UE signent une déclaration sur le danger de l’IA

Vingt-huit gouvernements *,  incluant le Royaume-Uni, les États-Unis, l’UE, l’Australie et la Chine, ont signé la déclaration dite de Bletchley le premier jour du IA  Safety Summit, qui s’est tenu les 1er et 2 novembre, organisé par le gouvernement britannique dans le comté du  Buckinghamshire.

La Déclaration de Bletchley est la première déclaration internationale qui aborde les risques potentiels posés par l’intelligence artificielle considérant même un risque potentiellement catastrophique pour l’humanité.

La Déclaration de Bletchley

« L’intelligence artificielle (IA) présente d’énormes opportunités à l’échelle mondiale : elle a le potentiel de transformer et d’améliorer le bien-être humain, la paix et la prospérité », indique la déclaration. « Pour y parvenir, nous affirmons que, pour le bien de tous, l’IA doit être conçue, développée, déployée et utilisée de manière sûre, de manière à être centrée sur l’humain, digne de confiance et responsable. »

« Parallèlement à ces opportunités, l’IA présente également des risques importants, y compris dans les domaines de la vie quotidienne », peut-on lire. « Des risques substantiels peuvent découler d’une utilisation abusive intentionnelle potentielle ou de problèmes de contrôle involontaires liés à l’alignement avec l’intention humaine. »

« Ces problèmes sont en partie dus au fait que ces capacités ne sont pas entièrement comprises et sont donc difficiles à prédire », indique la déclaration. « Nous sommes particulièrement préoccupés par ces risques dans des domaines tels que la cybersécurité et la biotechnologie, ainsi que par les domaines dans lesquels les systèmes d’IA frontaliers peuvent amplifier des risques tels que la désinformation. Il existe un potentiel de dommages graves, voire catastrophiques, délibérés ou non, découlant des capacités les plus importantes de ces modèles d’IA.»

« De nombreux risques découlant de l’IA sont intrinsèquement de nature internationale et il est donc préférable de les gérer par la coopération internationale », indique le texte. « Nous sommes déterminés à travailler ensemble de manière inclusive pour garantir une IA centrée sur l’humain, fiable et responsable, sûre et qui soutient le bien de tous par le biais des forums internationaux existants et d’autres initiatives pertinentes, afin de promouvoir la coopération pour faire face au large éventail de risques posés. par l’IA.»

Focus sur les dangers de l’IA

Les signataires ont convenu que la lutte contre les risques liés à l’IA se concentrera sur deux actions principales :

>  Identifier les risques de sécurité de l’IA d’intérêt commun, construire une compréhension scientifique et factuelle commune de ces risques et maintenir cette compréhension à mesure que les capacités continuent de croître, dans le contexte d’une approche mondiale plus large visant à comprendre l’impact de l’IA dans nos sociétés.

> Elaborer des politiques respectives basées sur les risques dans nos pays pour garantir la sécurité à la lumière de ces risques, en collaborant le cas échéant tout en reconnaissant que nos approches peuvent différer en fonction des circonstances nationales et des cadres juridiques applicables. Cela comprend, outre une transparence accrue de la part des acteurs privés développant des capacités d’IA de pointe, des mesures d’évaluation appropriées, des outils de test de sécurité et le développement de capacités pertinentes du secteur public et de la recherche scientifique.

La Corée du Sud a accepté d’accueillir un autre sommet de ce type dans six mois, tandis que la France en accueillera un dans un an.

Tom Jowitt, Silicon.co.uk

* Australie, Brésil, Canada, Chili, Chine, Union européenne, France, Allemagne, Inde, Indonésie, Irlande, Israël, Italie, Japon, Kenya, Royaume d’Arabie Saoudite, Pays-Bas, Nigeria, Philippines République de Corée, Rwanda, Singapour, Espagne, Suisse, Turquie, Ukraine, Emirats Arabes Unis, Royaume-Uni, Etats-Unis

Recent Posts

IA générative : l’Autorité de la concurrence pointe de sérieux risques

Dans un avis consultatif, l'Autorité de la concurrence a identifié les risques concurrentiels liés à…

2 jours ago

OpenAI signe un accord de contenu avec Time

OpenAI signe un « partenariat de contenu stratégique » avec Time pour accéder au contenu…

2 jours ago

Atos : David Layani (Onepoint) veut sortir du capital

Au lendemain du rejet de sa proposition de restructuration, David Layani annonce sa démission du…

2 jours ago

Évaluer les LLM, un défi : le cas Hugging Face

Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en…

3 jours ago

Mozilla face au dilemme de la GenAI dans Firefox

Mozilla commence à expérimenter divers LLM dans Firefox, en parallèle d'autres initiatives axées sur l'intégration…

3 jours ago

VMware tente d’orienter vers VCF les déploiements pré-Broadcom

VMware met VCF à jour pour y favoriser la migration des déploiements qui, sur le…

4 jours ago