ChatGPT et copyright : OpenAI, dans les clous du fair use ?
À renfort de théorie de l'information, un ancien employé d'OpenAI affirme que l'entreprise, accusée d'infraction au copyright avec ChatGPT, ne peut se prévaloir de la doctrine de l'usage raisonnable.
ChatGPT, produit d'une infraction massive au copyright ? OpenAI voit s'accumuler les poursuites pour ce motif.
Un de ses anciens employés - parti en août - estime que ces plaintes sont justifiées. Il en apporte une forme de démonstration à renfort de théorie de l'information. Question centrale : l'entraînement de ChatGPT relève-t-il de la doctrine du fair use (usage raisonnable) ?
Pour déterminer si cette dernière s'applique en cas d'exploitation d'une oeuvre protégée, le droit américain (section 107 du Copyright Act de 1976) impose de prendre en considération quatre facteurs :
- Finalité et caractère de l'usage (notamment s'il est de nature commerciale ou qu'il porte un objectif éducatif sans but lucratif)
- Nature de l'oeuvre protégée
- Quantité et importance de la portion utilisée vis-à-vis de l'oeuvre dans son ensemble
- Effet de cet usage sur la valeur de l'oeuvre ou sur son marché potentiel
L'effet ChatGPT par l'exemple Stack Overflow
Sur le dernier point, il est difficile de se prononcer directement, les données d'entraînement de ChatGPT n'étant pas publiques. Des études ont tout de même tenté de mesurer le phénomène. L'ex-employé d'OpenAI en mentionne une en particulier, publiée en mai 2024 et signée de trois chercheurs de l'université de Boston. Elle conclut au déclin de plusieurs indicateurs chez Stack Overflow après la sortie de ChatGPT. Entre autres, du trafic, des volumes de questions et du nombre de nouveaux comptes utilisateurs.
Concernant la finalité et le caractère de l'usage, il s'agit essentiellement de déterminer s'il existe un effet de substitution. C'est ainsi que la justice américaine avait raisonné au XIXe siècle, dans l'affaire qui avait posé les bases de la doctrine du fair use. L'accusé avait copié des fragments d'une biographie de George Washington pour rédiger sa propre version. Il avait alors été décidé que l'usage - même exhaustif - d'une oeuvre protégée pouvait relever du fair use aussi longtemps qu'il portait une finalité de critique "juste et raisonnable", sans que le dérivé se substitue à l'oeuvre d'origine.
Google Books et l'effet de substitution
Dans des litiges récents, ce facteur a été examiné sous l'angle de la "transformativeness", qu'on pourrait traduire par "degré de transformation". Exemple pour Google Books. Dans ce dossier, il a été déterminé que les pratiques reprochées (numérisation de livres, création d'une fonctionnalité de recherche et affichage d'extraits) relevaient d'une finalité "très transformative" et que les éléments publiés ne constituaient pas un substitut significatif aux aspects protégés de l'oeuvre d'origine.
En 2023, la Cour suprême américaine a clarifié la notion de "transformativeness", appelant à la mettre en balance avec la nature commerciale de l'usage de l'oeuvre.
ChatGPT est un produit commercial, mais a-t-il une finalité similaire à celle de ses données d'entraînement ? Dans la pratique, il est difficile d'estimer cette finalité pour un produit à vocation aussi transversale. On peut néanmoins recadrer le problème en se demandant si ChatGPT a un effet de substitution direct... ou indirect, comme une critique de film négative qui impacterait les entrées en salle.
Pour l'ancien employé d'OpenAI, il y a effectivement substitution directe. Il redonne l'exemple de Stack Overflow et de la baisse de trafic corrélée au lancement de ChatGPT, donc les réponses ne sont pas nécessairement similaires, mais ont la même finalité.
La théorie de l'information appliquée à la GenAI : une question d'entropie
Quant au facteur "quantité et importance de la portion utilisée", deux interprétations sont possibles. L'une sous l'angle des inputs, qui sont des copies des oeuvres d'origine... et qui ne peuvent donc bénéficier du fair use. L'autre sous l'angle des outputs, qui, au contraire, ne sont pas toujours des copies des oeuvres d'origine.
L'objectif du copyright, rappelle l'ancien employé d'OpenAI, n'est pas de protéger exactement les oeuvres, mais les choix créatifs dont elles découlent. Exemple avec le collage : l'auteur n'a pas le copyright sur les éléments qu'il a utilisés, mais sur l'arrangement qu'il en a fait. De même, l'auteur d'un roman n'invente pas de mots, mais la façon dont il les a disposés est couverte par le copyright.
Cette "sélection de possibles" peut être étudiée par la théorie de l'information. Un choix serait représenté par un bit. La quantité moyenne d'information dans un ensemble correspondrait à l'entropie de cet ensemble, mesurée en bits. La quantité d'informations partagée entre deux ensembles X et Y équivaudrait à H(Y) - H(Y|X). Cela peut indiquer, dans le cas du copyright, quelle proportion de X on retrouve dans Y.
Dans le contexte de l'IA générative, estimer H(Y) (entropie marginale des outputs sur l'ensemble des datasets posssibles) est quasi impossible. Estimer H(X) (entropie du dataset d'entraînement) est difficile, mais pas impossible. Vu le fonctionnement de l'entraînement des modèles génératifs, on peut supposer que H(Y) = H(X).
Intuitivement, les outputs à basse entropie ont davantage de chances d'inclure des données du dataset d'entraînement. Dans la pratique, les développeurs tendent à favoriser ce type d'outputs afin de limiter les hallucinations. Entre autres, en répétant des données lors de l'entraînement et en effectuant de l'apprentissage par renforcement.
Sur le même thème
Voir tous les articles Data & IA