IA : du jeu d'influence au "risque d'extinction"
« L'atténuation du risque d'extinction [de l'humanité] par l'IA devrait être une priorité mondiale au même titre que d'autres risques sociétaux comme les pandémies et la guerre nucléaire ». C'est l'appel que soutiennent plus de 350 spécialistes en IA et dirigeants d'entreprise.
Sam Altman, CEO d'OpenAI, Demis Hassabis, CEO de Google DeepMind, et Kevin Scott, CTO de Microsoft, font partie des signataires. Les chercheurs canadiens Geoffrey Hinton et Yoshua Bengio, deux des trois récipiendaires du prix Turing (ou ACM Turing Award) 2018 pour leurs travaux sur les réseaux de neurones profonds, ont également signé.
La déclaration est publiée sur le site du Center for AI Safety (CAIS). L'organisme à but non lucratif est basé à San Francisco et axe ses recherches sur le risque sociétal associé à l'IA.
L'IA, le risque et la régulation divisent
Pourquoi un message volontairement « succint » et alarmiste ?
Il est question « d'ouvrir la discussion » sur un sujet sensible. Il s'agit, par ailleurs, de démontrer à un public large « qu'un nombre croissant de spécialistes en IA et de personnalités publiques » appréhendent les risques élevés que fait peser la technologie sur l'humain. L'objectif, en définitive, est d'influencer les politiques visant à réguler l'intelligence artificielle, aux États-Unis comme en Europe et bien d'autres régions du monde.
La mise en garde intervient deux mois après qu'une autre organisation, Future of Life Institute, a publié une lettre ouverte appelant, sans succès, à suspendre 6 mois durant la formation de systèmes d'IA plus puissants que GPT-4. Ce dernier n'est autre que le modèle de traitement du langage lancé mi-mars par OpenAI, l'éditeur de l'IA générative ChatGPT.
L'appel a été signé dès publication par plus d'un millier de personnalités, notamment Steve Wozniak (cofondateur d'Apple) et Elon Musk (CEO de SpaceX, Tesla et Twitter).
Depuis, les sceptiques se font entendre. Le Français Yann LeCun, lui aussi Prix Turing 2018 et actuel scientifique en chef pour l'IA chez Meta, maison mère de Facebook, en fait partie.
L'ingénieur n'a signé ni l'un ni l'autre des appels. Certes, Yann LeCun s'est déclaré favorable à « la régulation de produits qui tombent entre les mains des gens ». Mais il considère que ralentir « les progrès de la connaissance et de la science » est une mauvaise idée.
(crédit photo © Adobe Stock)
Sur le même thème
Voir tous les articles Business