L’impact des algorithmes sur les discriminations : un enjeu majeur pour le numérique
Dans un rapport qui vient de paraître, l’Institut Montaigne est clair : le numérique et l’intelligence artificielle ne « pourront pourtant pas se développer en France s’ils sont porteurs de discriminations massives ». Mais l’étude des « biais algorithmiques » – de l’impact des algorithmes sur les discriminations –, courante dans le monde anglo-saxon, reste quasi-inexistante dans le monde francophone.
L’étude des « biais algorithmiques » – de l’impact des algorithmes sur les discriminations – est largement dominée par des voix et des cas anglo-saxons. Qu’il s’agisse de la justice, du recrutement, du crédit, de la reconnaissance faciale, les polémiques les plus vives ont tendance à venir des États-Unis.
En 2016, une enquête révélait que le logiciel COMPAS de prédiction de récidive pour les criminels discriminait les populations afro-américaines alors même qu’il était utilisé au quotidien par les juges américains pour décider d’accorder ou non des libérations sous caution. Au début de l’année 2019, des chercheurs ont accusé l’algorithme de Facebook de recommandation d’offres d’emploi de promouvoir moins fréquemment les femmes.
À partir de ces constats, l’Institut Montaigne a voulu donner une perspective française à cette problématique aujourd’hui essentiellement traitée sous un prisme américain.
En effet, il existe peu d’exemples publics de biais algorithmiques en France ou en Europe continentale, notamment de biais conduisant à des discriminations relatives aux vingt-cinq critères protégés par la loi française (âge, genre, religion…). Les rares cas avérés impliquent des acteurs américains.
L’Institut Montaigne est pourtant clair : le numérique et l’intelligence artificielle ne « pourront pourtant pas se développer en France s’ils sont porteurs de discriminations massives ». En effet, malgré le risque de biais dans certains cas, les « algorithmes sont, à bien des égards, un progrès en matière de lutte contre les discriminations » : utiliser un algorithme « revient à formaliser des règles applicables à tous, à en mesurer les résultats et donc à se donner les moyens d’assurer l’absence de biais ».
Quoi qu’il en soit, les biais algorithmiques conduisant à des discriminations sont rarement dus à un code erroné de l’algorithme. Les données, incomplètes, de mauvaise qualité, ou reflétant les biais présents dans la société, sont bien plus souvent à l’origine de ces biais. « Le combat des biais algorithmiques est donc avant tout un combat contre des discriminations déjà existantes au quotidien, indique l’étude. L’enjeu n’est pas seulement de produire des algorithmes équitables mais aussi de réduire les discriminations dans la société. »
Or, des difficultés importantes apparaissent. Il convient tout d’abord de « définir ce que serait un algorithme sans biais est complexe ». En effet, certains biais sont volontaires, comme le fait de promouvoir les boursiers dans le cursus scolaire.
« Un algorithme traitant les individus de manière équitable s’approche d’un algorithme sans biais indésirable, sans pour autant le garantir. Le détour par l’équité ne clôt pourtant pas le débat, car l’équité d’un algorithme peut prendre des formes multiples. L’appréciation de ce qui est juste comporte une dimension culturelle et morale. » Le rapport précise par ailleurs : « Corriger un algorithme pour le rendre équitable, c’est souvent réduire sa performance. »
Enfin, lutter contre les biais des algorithmes consiste à « réaliser une synthèse entre la protection des citoyens contre les discriminations et la possibilité d’expérimenter, cruciale dans l’économie numérique ». L’Institut Montaigne ajoute également que « restreindre fortement l’usage des algorithmes sur la suspicion qu’ils pourraient avoir des biais, c’est se priver de nouveaux outils pouvant objectiver nos décisions, c’est brider l’industrie française du numérique et subir à long terme une domination technologique américaine et chinoise. Laisser faire, c’est ignorer le potentiel de destruction de telles innovations sur notre tissu social. »
.