IA avancée : des collaborateurs d’OpenAI lancent une nouvelle alerte

ChatGPT concurrence Claude Anthropic clients

Des anciens et actuels collaborateurs d’OpenAI alertent, dans une lettre ouverte, sur les « risques sérieux » posés par les technologies d’IA et demandent un droit d’alerte sur l’intelligence artificielle avancée.

La lettre ouverte est titrée  » A Right to Warn about Advanced Artificial Intelligence ».

Ses signataires ? 11 anciens et actuels salariés d’OpenAI et 2 de Google DeepMind mettent en garde contre le manque de mesures de protection, de surveillance de la sécurité et contre le risque que ces mesures soient utilisées à des fins de « manipulation et de désinformation ».

A noter que 6 signataires d’OpenAI ( sur 11) se présentant comme actuellement en poste ne dévoilent pas leur identité.

La lettre est approuvée par d’éminents experts en IA :  les professeurs Yoshua Bengio, Stuart Russell et le Dr Geoffrey Hinton.

IA avancée : du potentiel et des dangers

Elle reconnaît le « potentiel de la technologie de l’IA à apporter des avantages sans précédent à l’humanité », mais souligne également les « risques sérieux posés par ces technologies ».

Ces risques vont du renforcement des inégalités existantes à la manipulation et à la désinformation, en passant par la perte de contrôle des systèmes d’IA autonomes pouvant entraîner l’extinction de l’humanité.

Les auteurs « espèrent que ces risques pourront être atténués de manière adéquate avec des conseils suffisants de la communauté scientifique, des décideurs politiques et du public. Cependant, ils estiment que les sociétés d’IA sont fortement incitées financièrement à éviter une surveillance efficace.

La lettre indique qu’elles possèdent « d’importantes informations non publiques sur les capacités et les limites de leurs systèmes, l’adéquation de leurs mesures de protection et les niveaux de risque de différents types de dommages ». Et d’ajouter : « Cependant, ils n’ont actuellement que de faibles obligations de partager certaines de ces informations avec les gouvernements, et aucune avec la société civile ».

Protéger les lanceurs d’alerte sur l’IA

Dans ce contexte, ils estiment que les sociétés d’IA n’ont pas l’intention de les partager volontairement et que l’absence de contrôle gouvernemental efficace laisse leurs salariés, actuels ou anciens, comme les rares personnes à pouvoir « les tenir responsables devant le public ».

Les signataires regrettent également que les protections des lanceurs d’alerte sont  insuffisantes. : « Elles se concentrent sur les activités illégales, alors que bon nombre des risques qui nous préoccupent ne sont pas encore réglementés. Certains d’entre nous craignent raisonnablement diverses formes de représailles, compte tenu de l’histoire de tels cas dans l’ensemble du secteur. Nous ne sommes pas les premiers à rencontrer ou à parler de ces problèmes.» écrivent-ils.

Ils proposent aux sociétés d’IA à appliquer quatre principes pour, notamment, soutenir une culture de critique ouverte.

Tom Jowitt, Silicon UK