Avec l'AI Act, un nécessaire RGPD 2 ?
Avec le Sommet pour l'IA en toile de fond (10-11 février 2025), le député Philippe Latombe en appelle à une nouvelle itération du RGPD... et à une prise de position française.
Une seule solution, un RGPD 2 ? Il faudra passer par là dans l'optique de rendre le règlement compatible avec l'AI Act, estime Philippe Latombe. Quitte à peut-être poser d'abord un nouveau cadre en droit souple.
"C'est difficile de faire rentrer un rond dans un carré ou un carré dans un rond", résume le député de Vendée, lors d'une table ronde tenue au salon Techshow. Et d'illustrer son propos avec les datasets d'entraînement qui comprennent des données personnelles. Le RGPD permet aux personnes concernées de demander la suppression de ces données. Mais que faire si le modèle est déjà entraîné ? Le réentraîner peut être coûteux, en argent comme en énergie. Quant à effacer les traces, "par principe, [on] ne sait pas vraiment où [elles] sont, parce que le modèle peut les ressortir à n'importe quel moment"...
L'avènement d'un RGPD 2 implique que les organisations de type CNIL européennes se mettent d'accord. Ce qui, d'après Philippe Latombe, n'est pas gagné. "On l'a vu avec la CNIL italienne. Quand ChatGPT est arrivé, elle a tapé la première, négocié avec OpenAI et à l'arrivée, [sa] solution juridique n'a pas été appliquée par l'ensemble [de ses homologues]."
Au-delà des questions de privacy, les données d'entraînement peuvent présenter des biais. Un risque que David Leconte, senior solution engineer chez DataStax, exemplifie par le cas d'une requête "Quelles sont les 10 personnalités les plus importantes du monde ?" faite à ChatGPT. "Il y a fort à parier que vous aurez [10 noms] classés suivant la représentation démographique ; et, in fine, par rapport à une représentation civilisationnelle de cette requête", explique-t-il. Une situation qui interroge, entre autres, sur la capacité à préserver des principes d'équité. Et qui s'ajoute notamment aux problèmes d'explicabilité des réponses produites (la notion de précision est-elle suffisante ? comment mesurer la dimension éthique ?). Ainsi qu'au risque de data drift associé (probabilité croissante pour les modèles de produire une information fausse à mesure qu'ils la renvoient).
La France en pourvoyeur d'IA "frugale" pour le Sud global ?
On ne peut, globalement, pas envisager l'IA sans une cybersécurité spécifique, selon Philippe Latombe. "Je pense aux problèmes liés à l'implémentation de Copilot dans les entreprises. Des utilisateurs avaient accès à des informations auxquelles ils n'auraient jamais dû avoir accès. [...] Pour des cyberattaquants, passer par Copilot à l'intérieur d'une entreprise permettrait d'obtenir des informations."
En toile de fond, le Sommet pour l'action sur l'intelligence artificielle, qui aura lieu les 10 et 11 février 2025 à Paris, au Grand Palais. L'occasion pour la France d'affirmer un positionnement, à l'heure où elle a "perdu [la guerre] de la puissance de calcul et, indirectement, de l'argent investi", estime le député. Par exemple dans l'optique d'attirer les pays du Sud global, "avec de l'IA pas chère, frugale. Et le modèle open source, préentraîné, sur lequel il n'y a plus que du fine-tuning à faire."
Pour David Leconte, les entreprises ont un défi de responsabilité partagée : développer de manière éthique par design. A fortiori dans la situation actuelle. "L'approche classique de la mise en oeuvre de l'IA est en général tournée sur des processus non partagés avec le grand public [alors que] l'IA générative a vocation à être tournée vers les individus. On met peut-être [dans leurs mains] des bombes à retardement. Elles ne sont pas toutes gérables par le biais de la régulation, des lois, des décrets."
Un défi de compression des réseaux de neurones existe en relation avec la notion d'IA "frugale", mais aussi pour pouvoir intégrer l'IA dans les objets du quotidien. À ce sujet, Philippe Latombe envisage une nouvelle phase de la robotique, marquée par l'adaptation à l'environnement. "Ça va probablement commencer par le secteur de la défense, puis ça viendra certainement assez vite dans le domaine de l'aide à la personne." Non sans soulever, dans notre contexte écologique et démographique, des questions : place sociale du robot, éthique (jusqu'où le robot doit-il aller ?), utilité de l'être humain... "Regardons ce qui se passe au Japon : à 5-10 ans, nous aurons [ces] questions à nous poser."
Lire aussi : 5 managers IT qui nous ont inspiré en 2024
Illustration principale générée par IA
Photo de Philippe Latombe © Don-vip - licence CC BY-SA 4.0
Sur le même thème
Voir tous les articles Data & IA