OpenAI : derrière les appels à la régulation, le lobbying
Un document laisse entrevoir les activités de lobbying d'OpenAI auprès de l'UE dans le cadre de l'élaboration de l'AI Act.
« Réguler l'IA, oui mais... » Ainsi avions-nous résumé, il y a quelques semaines, ce qui s'était joué devant le Congrès américain. Ce dernier avait auditionné des personnalités de la tech qui s'étaient globalement prononcées en faveur d'un encadrement du secteur, en dépit de divergences sur les leviers à utiliser.
Sam Altman, le CEO d'OpenAI, était de la partie. Quelques jours plus tard, il allait cosigner, avec plus de 350 spécialistes en IA et dirigeants d'entreprises, une forme d'appel à la vigilance. Le message, dans les grandes lignes : atténuer le risque d'extinction de l'humanité par l'IA devrait être une priorité mondiale comme l'est la question des pandémies ou de la guerre nucléaire.
En coulisse, le ton n'est pas le même. En tout cas au sujet de la législation sur l'intelligence artificielle (AI Act) que prépare l'Union européenne. Le texte, dont l'adoption devrait intervenir cette année, instaure des exigences spécifiques pour les systèmes d'IA « à haut risque ». OpenAI tente d'éviter que ses services soient classés comme tels. Ou, tout du moins, a tenté. En témoigne un « livre blanc » poussé, à l'automne 2022, vers les élus européens... mais pas au-delà.
En quatre points, OpenAI y expose ses « craintes » et suggère de reformuler, voire d'abandonner diverses dispositions inscrites dans la proposition initiale de la Commission européenne ou dans des documents ultérieurs.
OpenAI veut éviter la catégorie « haut risque »
Le « livre blanc » attire d'abord l'attention sur la position que la France avait émise en juin 2022, à l'heure où s'achevait son tour de présidence du Conseil de l'UE. Et plus particulièrement sur un aspect : l'estimation du niveau de risque des IA générales.
OpenAI s'inquiète que le « règlement IA » n'englobe, par défaut, tous ses services dans cette catégorie. L'article 4.c.1 pose bien une exemption lorsque le fournisseur a explicitement exclu, dans les instructions d'utilisation ou dans les informations accompagnant le système d'IA, toute possibilité d'usage à haut risque. Mais le 4.c.2 change potentiellement la donne. Il établit en l'occurrence qu'une telle exemption ne saurait être justifiée si le fournisseur a « suffisamment de raisons » de penser que son système d'IA pourrait faire l'objet d'usages abusifs.
À en croire OpenAI, une telle approche n'encouragera pas les fournisseurs à se poser la question. Et de proposer sa propre version « plus incitative » du 4.c.2, non sans donner un exemple, dans le domaine RH. « Nous ne tolérerions pas l'usage de GPT-3 pour déterminer l'adéquation d'un candidat avec une offre d'emploi, mais nous pourrions accepter l'aide à la rédaction de l'offre ». Et de conclure :
- GPT-3 n'est, en soi, pas un système à haut risque.
- Ce sont ses capacités qui peuvent alimenter des cas d'usage à haut risque.
- Prière de nous laisser fixer des lignes directrices, des bonnes pratiques et des limites que nous pourrons implémenter au niveau de nos API.
Protéger GPT-3 et DALL-E
OpenAI avance aussi le cas des IA génératives. Il fait référence à un rapport d'avril 2022 émanant du Parlement européen. Il y est question de modifier une annexe de l'AI Act de sorte que nombre de systèmes de génération de contenu seraient classés à haut risque. Plus précisément, s'ils créent du contenu textuel susceptible de paraître avoir été généré par un humain ou du contenu audio/vidéo semblant authentique.
Telle quelle, cette disposition pourrait signifier qu'il faudrait classer GPT-3 et DALL-E comme des systèmes à haut risque, déplore OpenAI. Et de suggérer que l'article 52 de l'AI Act se suffit à lui-même. Il impose une forme de transparence sur l'origine des contenus générés ou manipulés par IA.
S'épargner trop de contrôles de conformité
Le « livre blanc » comporte aussi un point sur les contrôles de conformité qu'impose l'AI Act. Le principe : on doit réévaluer un système d'IA dès lors qu'il subit une modification « substantielle », au sens, notamment, où elle modifierait la finalité dudit système.
OpenAI y voit un obstacle à la diffusion des innovations améliorant la sûreté de ces systèmes. De son point de vue, ce type de modifications, tout comme celles destinées à réduire un risque, ne devraient pas être considérées comme « substantielles », au risque de voir leur délai de mise en oeuvre s'allonger. En tout cas aussi longtemps qu'on peut raisonnablement estimer qu'elles n'auront pas d'impact négatif sur la santé, la sûreté ou les droits fondamentaux des personnes.
OpenAI exige plus d'exceptions
L'annexe III attire aussi l'oeil d'OpenAI, en ce qu'elle contient des catégories d'usage à haut risque. La crainte : qu'elle englobe aussi des usages qu'on ne devrait pas considérer comme tels.
OpenAI donne deux exemples. Le premier concerne le domaine du recrutement (section 4.a). D'après sa lecture, l'usage de systèmes d'IA pour signaler des vacances de postes tomberait dans la catégorie « haut risque ». Or, certaines des démarches qui y entreraient n'impliquent l'IA que d'une manière secondaire, la décision finale appartenant à l'humain. Ce serait le cas de la création de fiches de postes.
Même raisonnement sur la section 3.b, qui traite l'évaluation aux examens d'admission et au cours des formations. OpenAI appelle à exclure de la catégorie « haut risque » les systèmes qui ne font qu'aider à composer des examens. Son appel aux élus pourrait se résumer ainsi : clarifiez votre langage et concentrez-vous sur les cas d'usage susceptibles d'avoir un impact important sur les opportunités d'emploi ou d'éducation des personnes.
Photo d'illustration © Ascannio - Adobe Stock
Sur le même thème
Voir tous les articles Data & IA