Pour gérer vos consentements :

Vers une supervision éthique des smart machines par les DSI

Publié par Ariane Beky le | Mis à jour le

Le cabinet Gartner recommande aux DSI de se préparer à négocier des programmes éthiques centrés sur les déploiements et les usages de machines intelligentes.

Le monde abritera plus de 25 milliards d'objets connectés et machines intelligentes d'ici 2020, selon le cabinet Gartner. Pour tirer profit du potentiel de ces smart machines et assurer leur diffusion sécurisée auprès d'utilisateurs en entreprise, les DSI doivent se préparer à prendre en compte des discussions et programmes éthiques. Le but : maintenir la confiance et faire face aux imprévus.

« La capacité à gagner la confiance doit faire partie de tout plan visant à mettre en oeuvre des solutions d'intelligence artificielle (AI) ou des machines intelligentes », a déclaré Frank Buytendijk, vice-président et analyste chez Gartner. La confiance est également un argument de vente incontournable pour les directions métiers. Les DSI, de leur côté, doivent être en mesure de superviser ces technologies et faire face aux conséquences imprévues, bonnes ou mauvaises. Pour étayer son propos, Gartner a distingué cinq niveaux de développement informatique, en fonction de leur impact éthique.

La DSI en panne d'éthique ?

Le niveau 0 couvre les développements IT qui ne prennent pas du tout en considération l'éthique. Dans ce scénario, les fournisseurs n'assument pas ou peu de responsabilité éthique. C'est souvent le cas dans les « vaporwares » (ces logiciels annoncés par anticipation, mais toujours retardés). La DSI et l'organisation elles-mêmes font peu de cas de la conduite éthique des usages. Un accord de niveaux de services (SLA) bien ficelé limite les risques, selon Gartner. Le niveau 1 concerne les projets avec une tentative de supervision éthique. Il n'y a pas de programme dédié, mais les déploiements et les usages IT font l'objet d'un suivi, dans le respect des réglementations en vigueur. Les smart machines peuvent être utilisées et la responsabilité des usages est essentiellement assumée par les utilisateurs. Dans certains secteurs, dont la finance, un comité d'éthique officie.

Une supervision à distance

Les niveaux 2 et 3 couvrent les programmes éthiques. Au second niveau, outre les utilisateurs en entreprise, d'autres utilisateurs (les clients) sont pris en compte. La responsabilité est partagée entre le créateur, le fournisseur et l'utilisateur d'une technologie, par exemple l'assistant virtuel d'un smartphone. Au 3e niveau, tout un écosystème est concerné par des machines intelligentes toujours plus évoluées (voitures sans chauffeur.). De nombreuses tâches sont réalisées de manière autonome par la machine agissant au nom de l'utilisateur. Une machine intelligente doit-elle accéder à la carte bancaire professionnelle d'un employé ? Le DSI doit s'interroger et anticiper ces évolutions.

Une conscience artificielle

Au niveau le plus extrême, le niveau 4, Gartner prédit que les machines sous intelligence artificielle seront, à l'avenir, dotées d'une conscience. Elles devront être « éduquées » et leur éthique évoluera dans le temps. À ce niveau, la notion d'utilisateurs s'estompe au profit de celle d'acteurs qui interagissent. Face à la montée en puissance de l'intelligence artificielle, le DSI devra s'adapter.

Lire aussi :
Un tiers des emplois remplacés par des robots d'ici 2025, selon Gartner
1 développeur sur 5 travaille pour l'Internet des objets
Bill Gates se méfie des progrès de l'intelligence artificielle

crédit photo © Sergej Khackimullin - Fotolia.com