IA : pourquoi suspendre les développements est une "mauvaise idée"
Publié par Ariane Beky le | Mis à jour le
Suspendre 6 mois durant la formation de systèmes d'IA est inopportun, selon Yann LeCun (Meta) et Andrew Ng (DeepLearning.ai).
Le mois dernier, plus d'un millier de professionnels de l'IA et de l'IT, dont Steve Wozniak et Elon Musk, ont lancé un appel invoquant « des risques pour l'humanité » associés à l'intelligence artificielle (IA). Leur lettre ouverte invite à suspendre 6 mois durant la formation de systèmes d'IA plus puissants que GPT-4, le modèle de traitement du langage lancé mi-mars par OpenAI.
Une pause qui serait opérée par tous les acteurs clés. « Si une telle pause ne peut pas être mise en place rapidement, les gouvernements devraient intervenir et instituer un moratoire. »
Depuis, les sceptiques se font entendre. Yann LeCun, scientifique en chef pour l'IA chez Meta, et Andrew Ng, fondateur et CEO de DeepLearning.ai, en font partie. Les deux informaticiens et experts en IA expliquent leur point de vue dans une vidéo hébergée sur YouTube.
Il y aurait, selon eux, confusion entre la promotion d'un produit et la R&D.
« Quand nous parlons de GPT-4, ou de tout autre produit qu'OpenAI met en exergue actuellement, nous ne parlons pas de recherche et développement (R&D), mais de développement produit », a souligné Yann LeCun. « Ma première réaction à cela, c'est que demander de retarder la R&D équivaut à une nouvelle vague d'obscurantisme, essentiellement », a ajouté l'ingénieur français d'origine.
IA : réguler oui, mais sans freiner la R&D
Yann LeCun a poursuivi :
« Je suis favorable à la régulation des produits qui tombent entre les mains des gens. Mais, je ne vois pas l'intérêt de réglementer la R&D, je ne pense pas [que] réduire les connaissances que nous pourrions utiliser pour améliorer la technologie, la rende plus sûre. »
Et d'ajouter : « pourquoi ralentir les progrès de la connaissance et de la science ? »
Andrew Ng partage ce point de vue.
« Bien que l'IA présente aujourd'hui certains risques - tels que les biais, [les questions] d'équité et de concentration des pouvoirs qui sont de vrais problèmes - elle crée également une valeur réelle pour l'éducation, pour les soins de santé. » Elle apporte de « la valeur » à de nombreuses autres applications visant « à aider les gens », a déclaré l'informaticien.
Il a ajouté que la création d'un système plus performant que GPT-4 contribuerait à la réalisation de cet objectif. En revanche, interrompre ces progrès serait préjudiciable.
L'intervention de Yann LeCun et Andrew Ng fait écho aux propos récents de Luc Julia, directeur scientifique de Renault et co-concepteur de l'assistant vocal Siri d'Apple. Celui-ci déclarait dans un entretien accordé au quotidien Les Echos que s'inquiéter de l'utilisation de l'IA est légitime. « Mais plutôt que de demander une pause dans le développement, on devrait demander une accélération de l'éducation », a souligné l'ingénieur franco-américain.
Luc Julia a également rappelé qu'Elon Musk, un des signataires de l'appel, a lui-même investi dans OpenAI lors de sa création en 2015, avant de laisser le champ libre à d'autres. Microsoft est ainsi entré en jeu en 2019 en annonçant son intention d'investir 1 Md$ dans OpenAI. Obtenir une pause permettrait donc à Elon Musk de tenter de « rattraper la compétition ».
(crédit photo de une : via VisualHunt / CC BY)