Pour gérer vos consentements :
Categories: ChatGPT

ChatGPT risque-t-il de « privatiser » la connaissance ?

Les grands modèles de langage (LLM), une menace pour les biens numériques publics ? Trois chercheurs universitaires se sont penchés sur la question. Leur principal support d’étude : l’évolution des publications sur Stack Overflow après le lancement de ChatGPT.

Le postulat, dans les grandes lignes, était le suivant :

– Les LLM sont un substitut potentiel à de nombreuses méthodes « ouvertes » d’acquisition de connaissances… dont les forums tel Stack Overflow.

– L’interaction avec ces LLM étant privée, il existe un risque de réduction de la quantité – et éventuellement de la qualité – des connaissances publiquement accessibles.

– Il en résulterait, entre autres, un manque de données d’entraînement pour de futurs modèles.

– Les progrès des LLM reposeraient ainsi plus sensiblement sur ces interactions privées. Ce qui bénéficierait aux plus populaires, comme ChatGPT.

– On peut imaginer former des LLM avec des données produites par d’autres LLM, mais la méthode a ses limites.

Un « effet ChatGPT » marqué sur Stack Overflow

Début 2016, Stack Overflow enregistrait environ 110 000 posts par semaine, d’après les données qu’ont collectées les chercheurs. Le volume a ensuite décru, en moyenne, de 7000 posts chaque année, pour atteindre 60 000 début 2022.

La chute s’est accélérée à partir du lancement de ChatGPT fin novembre : 20 000 posts hebdomadaires de moins en six mois.

On n’a pas constaté le même phénomène sur les quatre autres plates-formes examinées. D’une part, la version russe de Stack Overflow et son homologue chinoise Segmentfault. De l’autre, Mathematics StackExchange et MathOverflow.

Aucune, a-t-on estimé, n’était susceptible d’être remplacée par ChatGPT. Les deux premières, parce qu’elles couvraient des zones géographiques où l’accès au chatbot d’OpenAI est officiellement limité. Les deux autres parce qu’elles touchent à des sujets qui ne sont pas sont point fort (voir notre article « Bard, ChatGPT et leurs limites de raisonnement »).

CUDA, exception à la baisse

Par « post », il faut entendre à la fois les questions et les réponses. Pour les unes et les autres, la chute post-ChatGPT est similaire.

On pourrait supposer que les connaissances « de base » disparaissent pour laisser place à des discussions plus qualitatives. L’examen des votes sur les posts ne le suggère pas : il n’y a pas eu d’évolution significative.

Les chercheurs reconnaissent que cet indicateur peut ne pas refléter la véritable qualité des publications. C’est l’une des limites de leur étude, admettent-ils. Aux côtés, notamment, du point d’interrogation sur la capacité des utilisateurs russes et chinois d’accéder tout de même à ChatGPT. Et de citer, à ce propos, des travaux qui ont démontré un pic de connexions VPN après le blocage – temporaire – du chatbot en Italie.

Si on se penche sur l’évolution du volume de posts par langage de programmation, l’« effet ChatGPT » a été négatif pour la plupart d’entre eux. Les plus touchés sont globalement aussi les plus populaires, en tout cas sur la foi de l’étalon que les chercheurs ont défini : le nombre de dépôts GitHub à juin 2021.

Ils sont cinq à faire exception à la baisse du volume de questions-réponses. Nommément, Objective-C, VBScript, Fortran, CUDA et Delphi.

Illustration principale générée par IA

Recent Posts

IA générative : l’Autorité de la concurrence pointe de sérieux risques

Dans un avis consultatif, l'Autorité de la concurrence a identifié les risques concurrentiels liés à…

2 jours ago

OpenAI signe un accord de contenu avec Time

OpenAI signe un « partenariat de contenu stratégique » avec Time pour accéder au contenu…

2 jours ago

Atos : David Layani (Onepoint) veut sortir du capital

Au lendemain du rejet de sa proposition de restructuration, David Layani annonce sa démission du…

2 jours ago

Évaluer les LLM, un défi : le cas Hugging Face

Après un an, Hugging Face a revu les fondements de son leaderboard LLM. Quels en…

3 jours ago

Mozilla face au dilemme de la GenAI dans Firefox

Mozilla commence à expérimenter divers LLM dans Firefox, en parallèle d'autres initiatives axées sur l'intégration…

3 jours ago

VMware tente d’orienter vers VCF les déploiements pré-Broadcom

VMware met VCF à jour pour y favoriser la migration des déploiements qui, sur le…

4 jours ago