OpenAI et Anthropic vont partager des modèles d’IA avec le gouvernement américain

Hugging Face LLM leaderboard

L’accord signé par OpenAI et Anthropic permettra à l’Institut américain de sécurité de l’IA ( US AI Safety Institute) d’accéder à de nouveaux modèles majeurs pour procéder à des tests de sécurité.

OpenAI et Anthropic ont tous deux signé des accords avec le gouvernement américain pour la recherche, les tests et l’évaluation de leurs modèles d’intelligence artificielle.

L’Institut américain de sécurité de l’IA a annoncé « des accords qui permettent une collaboration formelle sur la recherche, les tests et l’évaluation de la sécurité de l’IA avec Anthropic et OpenAI ».

Essentiellement, l’accord permettra au gouvernement américain d’accéder à de nouveaux modèles d’IA majeurs avant leur sortie générale, afin de contribuer à améliorer leur sécurité. Il s’agit d’un objectif fondamental des instituts britannique et américain de sécurité de l’IA.

 

Sécurité des LLM

En avril 2024, le Royaume-Uni et les États-Unis ont signé un accord historique pour travailler ensemble sur les tests d’intelligence artificielle (IA) avancée.

Dans cet accord, les instituts britannique et américain de sécurité de l’IA s’engagent à travailler en toute transparence les uns avec les autres, en s’associant à la recherche, aux évaluations de sécurité et aux conseils sur la sécurité de l’IA.

Cet accord fait suite au sommet sur la sécurité de l’IA qui s’est tenu l’année dernière au Royaume-Uni, où de grandes entreprises comme Amazon, Google, la société mère de Facebook Meta Platforms, Microsoft et OpenAI ont toutes accepté de tester volontairement la sécurité des systèmes d’IA, ce qui a donné lieu à la « déclaration de Bletchley ».

Cet accord a été soutenu par l’UE et 10 pays, dont la Chine, l’Allemagne, la France, le Japon, le Royaume-Uni et les États-Unis.

Accord OpenAI et  Anthropic

Selon l’Institut américain de sécurité de l’IA, le protocole d’accord de chaque entreprise établit désormais le cadre qui lui permettra « d’avoir accès aux principaux nouveaux modèles de chaque entreprise avant et après leur publication publique. Les accords permettront une recherche collaborative sur la manière d’évaluer les capacités et les risques de sécurité, ainsi que sur les méthodes permettant d’atténuer ces risques ».

« La sécurité est essentielle pour alimenter l’innovation technologique de rupture », a déclaré Elizabeth Kelly, directrice de l’Institut américain de sécurité de l’IA. « Avec ces accords en place, nous sommes impatients de commencer nos collaborations techniques avec Anthropic et OpenAI pour faire progresser la science de la sécurité de l’IA ».

« Ces accords ne sont qu’un début, mais ils constituent une étape importante dans notre travail visant à contribuer à la gestion responsable de l’avenir de l’IA », a déclaré Kelly.

En outre, l’ US AI Safety Institute  prévoit de fournir des commentaires à Anthropic et OpenAI sur les améliorations potentielles de sécurité de leurs modèles, en étroite collaboration avec ses partenaires de l’AI Safety Institute britannique.

Tom Jowitt, Silicon UK