Recherche

IA et responsabilité : les États-Unis consultent

Le gouvernement des États-Unis ouvre une consultation publique sur un régime de responsabilité pour l'intelligence artificielle. Afin de mieux réguler ?

Publié par le | Mis à jour le
Lecture
2 min
  • Imprimer
IA et responsabilité : les États-Unis consultent

Quelle place pour la régulation dans les déploiements de l'intelligence artificielle (IA) ?

L'administration Biden s'interroge.

Mardi 11 avril, la NTIA (National Telecommunications and Information Administration), entité du Département du commerce des États-Unis, a ouvert une consultation publique sur les politiques associées à la responsabilité et l'IA (AI Accountability Policy).

L'agence fédérale dit vouloir obtenir « des commentaires sur les politiques susceptibles de favoriser le déploiement d'audits, d'évaluations, de certifications et d'autres mécanismes qui permettront d'instaurer la confiance dans les systèmes d'IA ».

Vers une IA responsable et régulée aux États-Unis ?

La demande de commentaires (request for comment ou RFC) porte notamment sur :

- le type d'accès aux données nécessaires aux audits et évaluations
- l'implication des régulateurs et d'autres acteurs pour encourager des systèmes d'IA fiables
- l'adaptation sectorielle (emploi, santé) des dispositifs à venir

Entreprises, particuliers, chercheurs, organisations et groupes d'influence sont invités à se prononcer par « écrit » sur ces sujets avant le 10 juin 2023. La requête s'inscrit dans le processus classique d'élaboration de politiques publiques américaines.

L'exercice fait suite aux interventions sur l'IA générative du président américain Joe Biden et de groupes d'influence, parmi lesquels le Center for AI & Digital Policy (CAIDP). Celui-ci sollicite du régulateur du commerce une enquête sur les pratiques commerciales d'OpenAI.

L'éditeur de ChatGPT qui a lancé mi-mars le modèle de traitement de langage GPT-4.

Dans sa récente plainte, le CAIDP indique :

« La Federal Trade Commission (FTC) a déclaré que l'utilisation de l'IA devrait être 'transparente, explicable, équitable et empiriquement solide tout en favorisant la responsabilité'. [Or], le produit GPT-4 d'OpenAI ne satisfait à aucune de ces exigences. »

Selon le CAIDP, en outre, « il conviendrait d'instaurer un suivi et une évaluation indépendante des produits d'intelligence artificielle à vocation commerciale proposés aux États-Unis. »

En Europe, outre la responsabilité et l'éthique, la sécurité de l'IA fait également débat.

(crédit photo via Visual Hunt / CC BY-SA)

Sur le même thème

Voir tous les articles Business

Livres Blancs

Voir tous les livres blancs

Vos prochains événements

Voir tous les événements

Voir tous les événements

S'abonner
au magazine
Se connecter
Retour haut de page