Pour gérer vos consentements :
Categories: ChatGPT

OpenAI et Anthropic vont partager des modèles d’IA avec le gouvernement américain

OpenAI et Anthropic ont tous deux signé des accords avec le gouvernement américain pour la recherche, les tests et l’évaluation de leurs modèles d’intelligence artificielle.

L’Institut américain de sécurité de l’IA a annoncé « des accords qui permettent une collaboration formelle sur la recherche, les tests et l’évaluation de la sécurité de l’IA avec Anthropic et OpenAI ».

Essentiellement, l’accord permettra au gouvernement américain d’accéder à de nouveaux modèles d’IA majeurs avant leur sortie générale, afin de contribuer à améliorer leur sécurité. Il s’agit d’un objectif fondamental des instituts britannique et américain de sécurité de l’IA.


Sécurité des LLM

En avril 2024, le Royaume-Uni et les États-Unis ont signé un accord historique pour travailler ensemble sur les tests d’intelligence artificielle (IA) avancée.

Dans cet accord, les instituts britannique et américain de sécurité de l’IA s’engagent à travailler en toute transparence les uns avec les autres, en s’associant à la recherche, aux évaluations de sécurité et aux conseils sur la sécurité de l’IA.

Cet accord fait suite au sommet sur la sécurité de l’IA qui s’est tenu l’année dernière au Royaume-Uni, où de grandes entreprises comme Amazon, Google, la société mère de Facebook Meta Platforms, Microsoft et OpenAI ont toutes accepté de tester volontairement la sécurité des systèmes d’IA, ce qui a donné lieu à la « déclaration de Bletchley ».

Cet accord a été soutenu par l’UE et 10 pays, dont la Chine, l’Allemagne, la France, le Japon, le Royaume-Uni et les États-Unis.

Accord OpenAI et  Anthropic

Selon l’Institut américain de sécurité de l’IA, le protocole d’accord de chaque entreprise établit désormais le cadre qui lui permettra « d’avoir accès aux principaux nouveaux modèles de chaque entreprise avant et après leur publication publique. Les accords permettront une recherche collaborative sur la manière d’évaluer les capacités et les risques de sécurité, ainsi que sur les méthodes permettant d’atténuer ces risques ».

« La sécurité est essentielle pour alimenter l’innovation technologique de rupture », a déclaré Elizabeth Kelly, directrice de l’Institut américain de sécurité de l’IA. « Avec ces accords en place, nous sommes impatients de commencer nos collaborations techniques avec Anthropic et OpenAI pour faire progresser la science de la sécurité de l’IA ».

« Ces accords ne sont qu’un début, mais ils constituent une étape importante dans notre travail visant à contribuer à la gestion responsable de l’avenir de l’IA », a déclaré Kelly.

En outre, l’ US AI Safety Institute  prévoit de fournir des commentaires à Anthropic et OpenAI sur les améliorations potentielles de sécurité de leurs modèles, en étroite collaboration avec ses partenaires de l’AI Safety Institute britannique.

Tom Jowitt, Silicon UK

Recent Posts

Les MDM se mettent à l’heure d’Apple Intelligence

À l'approche du déploiement d'Apple Intelligence, les fournisseurs de MDM intègrent les stratégies - pour…

3 heures ago

Firefox généralise le HTTPS par défaut

Le surclassement des connexions en HTTPS est désormais généralisé dans Firefox. Il l'était jusqu'ici en…

5 heures ago

LinkedIn fait désormais sans CentOS

LinkedIn a substitué Azure Linux à CentOS 7. Une migration qui a présenté une variété…

22 heures ago

Le DSA, autre chef d’accusation pour Telegram

Telegram devrait-il être soumis au DSA ? Bruxelles doute des données d'audience que lui a…

1 jour ago

Capgemini gobe Syniti et son expertise SAP

Capgemini entend mettre la main sur Syniti, qui fournit des solutions de gestion des données…

1 jour ago

Le raisonnement inductif, capacité sous-estimée des LLM ?

Des chercheurs proposent un framework qu'ils disent à même de saisir les véritables capacités de…

2 jours ago