Pour gérer vos consentements :
Categories: Projets

OpenAI : réguler l’IA oui, mais…

Quelle place pour la régulation dans les déploiements de l’intelligence artificielle (IA) ?

Mardi 16 mai, Sam Altman, CEO d’OpenAI, l’éditeur de l’IA générative ChatGPT, était auditionné [vidéo] par les membres de la commission des affaires juridiques du Congrès des États-Unis.

Un exercice relativement convenu outre-Atlantique pour de grands noms des technologies de l’information et d’autres secteurs de l’économie.

Christina Montgomery, vice-présidente et CPTO (Chief Privacy & Trust Officer) d’IBM, et Gary Marcus, professeur émérite à l’Université de New York (NYU | Stern) et ex-CEO de Geometric Intelligence (acquis par Uber), ont également été entendus.

Tous se disent favorables à la régulation du secteur et estiment qu’il y a urgence à en déterminer les contours. Cependant, ils sont divisés sur la dimension que celle-ci devrait prendre.

Sam Altman s’est déclaré favorable à la création d’une nouvelle agence fédérale qui serait en charge de l’attribution de licences et pourrait exiger qu’un audit indépendant soit mené. L’objectif étant de soutenir les déploiements de technologies d’IA durables et conformes aux standards de sécurité.

Christina Montgomery, de son côté, s’est prononcée pour une régulation orientée sur la transparence, le risque et les dessous des modèles d’IA. Le tout serait encadré par une agence existante, afin de soutenir le rythme d’innovation et d’adoption de la technologie.

Gary Marcus, de son côté, a recommandé que la disponibilité générale d’une intelligence artificielle soit précédée d’un examen de sécurité, dont l’application serait encadrée par une agence dédiée.

IA : réguler oui, mais sans freiner l’innovation

L’IA générative connaît une accélération des investissements et de sa popularité depuis le lancement public en novembre 2022 de ChatGPT d’OpenAI.

Les auditions de Sam Altman, Christina Montgomery et  Gary Marcus interviennent  après l’ouverture en avril d’une consultation publique, initiée par le gouvernement américain, sur un potentiel régime de responsabilité pour l’intelligence artificielle.

Cette demande de commentaires (request for comment ou RFC)  fait elle-même suite au lancement d’un appel invoquant « des risques pour l’humanité » associés à l’IA.  Dans leur lettre ouverte, les signataires, dont Steve Wozniak et Elon Musk, invitaient à suspendre la formation de systèmes d’IA plus puissants que GPT-4, le modèle de traitement du langage lancé mi-mars par OpenAI.

D’autres spécialistes, dont Yann LeCun (Meta) et Andrew Ng (DeepLearning.ai), ont estimé qu’interrompre 6 mois durant la formation de systèmes d’IA est à la fois inopportun et illusoire.

(crédit photo : TechCrunch on VisualHunt | CC BY 2.0)

Recent Posts

Vers des mises à jour cumulatives intermédiaires pour Windows

Pour réduire la taille des mises à jour de Windows, Microsoft va mettre en place…

36 minutes ago

RH, finances, stratégie… Les complexités de la Dinum

De l'organisation administrative à la construction budgétaire, la Cour des comptes pointe le fonctionnement complexe…

20 heures ago

SpreadSheetLLM ou la promesse d’une GenAI plus à l’aise avec Excel

Sous la bannière SpreadSheetLLM, Microsoft propose un framework destiné à optimiser le traitement des feuilles…

21 heures ago

Comment AT&T a payé une rançon pour le vol de ses données

Selon le magazine Wired, AT&T aurait payé près de 400 000 $ à un pirate…

23 heures ago

Banni, Kaspersky quitte les États-Unis

Confronté à un bannissement généralisé, Kaspersky va se retirer progressivement du marché américain, à partir…

1 jour ago

La « coche bleue », mais pas que : X accusé d’enfreindre le DSA

Voilà X officiellement accusé d'infractions au DSA. La Commission européenne ne valide pas le système…

2 jours ago