Pour gérer vos consentements :

Machine Learning : Microsoft veut chasser les biais pour réduire les discriminations

«Ce que nous découvrons {dans notre document}, c’est que ce n’est pas parce qu’une machine agit de manière agnostique qu’elle sera impartiale … L’apprentissage automatique c’est: vous regardez le monde, puis vous apprenez du monde. La machine va donc également apprendre les biais qui existent dans le monde qu’elle observe » explique une équipe de recherche de Boston University qui a travaillé sur les biais des algorithmes de machine learning, avec le soutien de Microsoft.

Un constat que les spécialistes admettent depuis longtemps et que l’éditeur de Redmond a décidé de prendre en charge en développant  un outil capable de détecter les biais dans les algorithmes d’intelligence artificielle. Objectif : aider les entreprises à utiliser le machine learning sans courir le risque de discriminer certaines personnes.

Des risques de discrimination à l’emploi

Pour Rich Caruana, qui travaille sur le projet pour Microsoft,  il s’agira d’un «tableau de bord» que les ingénieurs pourront appliquer aux modèles d’IA pour corriger les biais natifs.

« Des choses comme la transparence, l’intelligibilité et l’explication sont assez récentes pour que peu d’entre nous aient suffisamment d’expérience pour savoir tout ce que nous devrions rechercher et toutes les façons dont ce biais pourrait se cacher dans nos modèles », explique-t-il au MIT Technology Review .

Les conséquences peuvent être pénalisantes dans les domaine de la santé, de la justice et de l’emploi notamment, pointent les chercheurs de Boston University. Ainsi, on constate des connexions sémantiques entre « programmeur » et « homme », plus rarement avec le mot » femme ». Un biais qui pourrait provoquer une ségrégation à l’emploi.

« La chose la plus importante que les entreprises peuvent faire maintenant est d’éduquer leur main-d’œuvre afin qu’elles soient conscientes des myriades de biais qui peuvent apparaître et se manifester et créer des outils pour rendre les modèles plus faciles à comprendre » explique-t-il à Venture Beat

D’autres acteurs de l’IT travaillent sur cette problématique. En début du mois, Facebook a annoncé tester une solution  appelée Fairness Flow sur son service d’offres d’emploi pour traquer les biais discriminants. Idem chez IBM qui propulse sa solution IA, Watson, comme une priorité stratégique.

Crédit Photo : @Merrill College of Journalism Press Releases via Visual Hunt / CC BY-NC

Recent Posts

Pour son premier LLM codeur ouvert, Mistral AI choisit une architecture alternative

Pour développer une version 7B de son modèle Codestral, Mistral AI n'a pas utilisé de…

3 heures ago

Microsoft x Inflection AI : l’autorité de la concurrence britannique lance son enquête

L’Autorité de la concurrence et des marchés (CMA) britannique ouvre une enquête sur les conditions…

6 heures ago

Thomas Gourand, nouveau Directeur Général de Snowflake en France

Thomas Gourand est nommé Directeur Général pour la France. Il est chargé du développement de…

7 heures ago

Accord Microsoft-CISPE : comment Google a tenté la dissuasion

Pour dissuader le CISPE d'un accord avec Microsoft, Google aurait mis près de 500 M€…

7 heures ago

Vers des mises à jour cumulatives intermédiaires pour Windows

Pour réduire la taille des mises à jour de Windows, Microsoft va mettre en place…

8 heures ago

RH, finances, stratégie… Les complexités de la Dinum

De l'organisation administrative à la construction budgétaire, la Cour des comptes pointe le fonctionnement complexe…

1 jour ago