IA : Meta retarde le lancement de ses LLM dans l’UE

Meta retarde le lancement de ses larges modèles de langage (LLM) Llama en Europe, après les plaintes de groupes de protection de la vie privée concernant l’utilisation des données des utilisateurs .

Meta , la société mère de Facebook, déclare qu’elle retarde le lancement de Llama, ses modèles d’IA en Europe.

La raison ?  Des plaintes d’utilisateurs et d’un groupe de protection de la vie privée contre son intention d’utiliser de nombreuses données publiques,  sans obtenir leur consentement, pour entraîner les modèles d’IA.

Meta a indiqué le 14 juin que la Data Protection Commission ( DPC), le régulateur irlandais, lui avait demandé de retarder le projet d’utilisation des données des utilisateurs de Facebook et d’Instagram dans l’UE.

La Data Protection Commission ( DPC) en Irlande a salué la décision, qui faisait suite à un
« engagement intensif » entre elle et Meta.

Max Schrems à la manœuvre contre Llama

Le groupe de défense de la vie privée Noyb a déposé une plainte auprès des régulateurs de la protection des données en Autriche, Belgique, France, Allemagne, Grèce, Italie, Irlande, Pays-Bas, Norvège, Pologne et Espagne. Motif : les actions de Meta enfreignaient le règlement général sur la protection des données (RGPD) de l’UE, qui s’applique également au Royaume-Uni.

Les utilisateurs s’étaient plaints de ces projets après en avoir été informés par Meta, qui déclarait que les utilisateurs devraient accomplir un processus complexe s’ils voulaient se retirer du traitement des données.

« La DPC, en coopération avec ses collègues des autorités européennes chargées de la protection des données, continuera à collaborer avec Meta sur cette question » affirme Graham Doyle, son commissaire adjoint.

Meta  prévoit d’utiliser des informations accessibles au public et sous licence. Le groupe maintient que ses actions sont conformes aux lois de l’UE et du Royaume-Uni sur la protection des données, dans la mesure où un intérêt légitime était impliqué.

Il s’est dit « déçu » de la demande du DPC irlandais, faite au nom d’autres DPA (Data Processing Agreement) européens.

Meta recule mais ne change pas de stratégie IA

 « Nous sommes déçus par la demande de la Commission irlandaise de protection des données (DPC), notre principal régulateur, au nom des DPA européennes, de retarder la formation de nos grands modèles linguistiques (LLM) à l’aide de contenus publics partagés par des adultes sur Facebook et Instagram, en particulier puisque nous avons intégré les retours réglementaires et que les DPA européennes en sont informées depuis mars. » indique son communiqué.

Qualifiant cette décision de « pas en arrière » pour l’innovation et la concurrence européennes dans le développement de l’IA, Meta indique  qu’il n’introduira pas ses modèles d’IA en Europe pour l’instant.  Sans les données locales, le groupe affirme ne pouvoir offrir qu’une « expérience de second ordre ».

Meta affirme que le retard lui permettra de répondre aux demandes spécifiques reçues du Bureau du commissaire à l’information (ICO) du Royaume-Uni, avant de commencer l entrainement de ses modèles LLama.

Le président de Noyb, Max Schrems, a attribué ce recul de Meta aux plaintes de l’organisation, mais note qu’il n’y a eu aucun changement officiel de politique.

« Jusqu’à présent, il n’y a pas de changement officiel dans la politique de confidentialité de Meta, qui rendrait cet engagement juridiquement contraignant. Les dossiers que nous avons déposés sont en cours et nécessiteront une décision », affirme-t-il.

Avec Matthew Broersma, Silicon UK