IA générative : l’agence américaine du copyright cherche des repères

IA générative copyright

Les doutes de l’US Copyright Office quant aux IA génératives transparaissent dans une consultation publique ouverte jusqu’à mi-octobre.

Peut-on faire en sorte qu’un modèle d’intelligence artificielle « oublie » ce qu’il a appris d’un contenu donné et est-ce faisable économiquement ? Cette question figure dans un appel à commentaires que l’US Copyright Office vient de lancer.

L’agence américaine a identifié quatre grands thèmes :

– L’usage d’œuvres sous copyright pour entraîner des IA
– L’application du droit au copyright pour les contenus générés par des systèmes d’IA
– Les responsabilités dans le cas où de tels contenus violeraient des œuvres sous copyright
– Les IA génératives imitant l’identité ou le style d’un être humain

L’appel à commentaires est ouvert jusqu’au 18 octobre. Il fait suite à une série de webinaires, eux-mêmes précédés d’auditions publiques… et de la communication de lignes directrices pour le dépôt de copyright.

En parallèle de ces consignes, l’US Copyright Office avait clarifié sa position à propos des œuvres contenant des éléments générés par IA. En substance, il faut juger si la machine a été un simple instrument d’assistance ou si elle a conçu et exécuté les éléments traditionnellement considérés comme constitutifs d’une œuvre. Dit autrement, est-on face au résultat d’une « reproduction mécanique » ou de la « conception mentale propre » d’un auteur ?

Une œuvre qu’une IA crée à partir d’un simple commande (prompt) ne peut pas être couverte par le copyright, estime ainsi l’agence. Dans son raisonnement, on est sur un mécanisme apparenté au commissionnement d’un artiste : c’est la machine qui détermine comment implémenter les instructions. Au contraire, la demande de copyright peut être recevable si un humain a modifié ou mis en forme, de façon « suffisamment créative », des contenus qu’une IA a générés.

Fair use et consentement

L’US Copyright Office cherche notamment, outre la « question de l’oubil » sus-évoquée, à comprendre dans quelle mesure la notion d’usage raisonnable (fair use) peut s’appliquer. En particulier si des modèles initialement conçus pour des fins non commerciales en viennent finalement à servir des usages commerciaux.

Le principe du fair use pourrait aussi impliquer de mesurer l’effet sur la valeur ou le marché potentiel d’une œuvre sous copyright si celle-ci venait à entrer dans un jeu de données d’entraînement. Un point sur lequel l’agence a également des doutes. Il en va de même sur les éventuels mécanismes qui permettraient aux auteurs de donner ou non consentement. Faut-il privilégier l’opt-in ou l’opt-out ? Quelle(s) licence(s) pour régir ce système ? Le législateur doit-il les imposer ?…

Question liée : faut-il adjoinre aux systèmes d’IA une forme de registre renseignant les contenus utilisés pour l’entraînement ? Quel en sera le niveau de précision ? À qui y donner accès ?

Des droits existants compatibles ?

Pour ce qui est des contenus que génèrent les IA, se pose, entre autres questions, celle de l’éventuelle application du droit de reproduction. Et d’une forme de droit de publicité dans le cas où une IA imiteraient l’identité – y compris vocale – d’un individu.

En écho au registre des données d’entraînement, l’US Copyright Office se demande s’il faut exiger un étiquetage ou une identification publique desdits contenus. L’agence cherche aussi à comprendre vers qui se tourner en cas d’infraction au copyright. Le développeur du modèle ? Le développeur du système exploitant ce modèle ? L’utilisateur final ?…

Du côté de l’OSI, on milite contre tout copyright autant pour les modèles que pour les datasets d’entraînement. L’organisation, qui tente d’adapter sa définition référente de l’open source à l’IA, appelle à renoncer plus globalement à toute licence spécifique.

À consulter en complément :

L’IA en est-elle vraiment à un « point d’inflexion » ?
Quelques méthodes pour tirer le meilleur des modèles GPT
OpenAI en piste pour réaliser 1 milliard de revenus
ChatGPT risque-t-il de « privatiser » la connaissance ?

Photo d’illustration © Kemal – Adobe Stock