Musk, Hawking, Wozniack contre les armes autonomes dotées d'IA
Publié par Jacques Cheminat le | Mis à jour le
Plusieurs personnalités ont signé une lettre ouverte avec des chercheurs en intelligence artificielle et en robotique pour interdire la prolifération d'armes autonomes s'appuyant sur l'IA.
On connaissait la position de Stephen Hawking, Steve Wozniack ou Elon Musk concernant le futur de l'intelligence artificielle. « Effrayant », « fin de l'espèce humaine », « un appel au diable », les phrases chocs n'ont pas manqué. Aujourd'hui, les mêmes personnes mais aussi Jan Tallin, co-fondateur de Skype ou Noam Chomsky lancent un appel à travers une lettre ouverte avec plusieurs chercheurs spécialisées dans l'intelligence artificielle et en robotique pour demander l'interdiction du développement d'armes autonomes s'appuyant sur leurs recherches.
Dans leurs missives, les signataires indiquent que dans quelques années et non dans une décennie, il sera possible de créer des armes autonomes dotées d'une intelligence artificielle qui pourront « sélectionner et tirer sur une cible sans intervention humaine ». A titre d'exemple, la lettre cite un drone capable de chercher et d'éliminer des gens sur des critères-prédéfinis.
Bannir les Kalashnikov de demain
Les travaux sur ce type d'armes mèneraient inévitablement à une course à l'armement par les grandes puissances. « Les armes autonomes risquent de devenir les kalshnikov de demain », précise avec le sens de la formule les auteurs de la lettre. La réalisation de ces armes nécessite beaucoup moins de temps, d'argent et de matière première que la mise au point d'une bombe nucléaire et pourrait donc à terme aboutir à une production de masse. Pire à l'heure de la face cachée du web, les signataires estiment que c'est une question de temps pour que cette technologie soit disponible sur le marché noir à disposition de terroristes ou de dictateurs.
In fine, les chercheurs et les personnalités revendiquent un usage « pour le bénéfice de l'humanité » de l'intelligence artificielle et de la robotique et non pour « tuer des gens ». Ils demandent donc l'arrêt du processus de course à l'armement autonome et de réfléchir sur son contrôle comme c'est le cas pour les armes chimiques, bactériologiques et nucléaires soumis à des traités internationaux.
A lire aussi :
Yann LeCun, Facebook : l'intelligence artificielle est son amie
Craintes sur l'IA, de la mauvaise science-fiction pour Linus Torvalds