Intelligence artificielle : arme de discrimination massive ?
L’intelligence artificielle (IA) occupe une place grandissante dans la fonction RH en général, dans le recrutement en particulier. 76% des recruteurs interrogés dans le cadre de l’étude Linkedin Global Recruiting Trends de 2018, estiment que l’IA a un impact important sur la qualité des candidats et des embauches et qu’elle apporte une plus grande diversité dans les recrutements. "Bien paramétrés, confirme Adrien Moreira, fondateur de Bruce, les algorithmes renforcent la qualité des processus de recrutement dans des contextes où le temps comme les moyens manquent". Ils prendraient même de meilleures décisions que les humains. Selon une étude de la Havard Business Review, ils augmenteraient en effet de 25% les chances de choisir le candidat en meilleure adéquation avec le poste et l’entreprise.
Des biais inévitables
Mais, la grande promesse de l’IA réside surtout dans sa capacité à lutter contre les biais cognitifs qui viennent perturber le processus de recrutement. Avoir le même parcours universitaire, la même expérience d’expatriation ou les mêmes goûts musicaux crée une connivence que des algorithmes partant des compétences peuvent déjouer. "La majeure partie des discriminations, explique Adrien Moreira, sont non conscientes". Les algorithmes sont d’autant plus à même de contrecarrer ce biais culturel et de se détacher des "profils types" qu’ils parviennent à passer en revue des milliers de candidatures là où un recruteur n’en retiendra que quelques-unes, écartant peut-être les candidats dont les noms ne sonnent pas bien à son oreille…
Les biais des algorithmes "s’appliquent de manière automatique et pourraient systématiser les discriminations".
Cependant, de biais les algorithmes ne sont pas exempts. Contrairement aux biais cognitifs qui varient en fonction des circonstances et ne se traduisent pas toujours en pratiques discriminatoires, les leurs "s’appliquent de manière automatique et pourraient systématiser les discriminations". Cela fait craindre au Défenseur des droits "un risque majeur de renforcer ‘essentialisation’ et ‘stéréotypes’". En effet, confirme Jean-Gabriel Ganascia, professeur d’informatique à la faculté des sciences de Sorbonne Université et Président du comité d’éthique du CNRS, "une machine n’est pas nécessairement objective, mais systématique si".
Vers une responsabilité algorithmique des entreprises
Les biais algorithmiques possèdent, cependant, un avantage sur les biais cognitifs : il est plus facile d’agir sur eux. Dans un rapport consacré au sujet, l’Institut Montaigne recommande, à l’instar des études cliniques réalisées sur les médicaments, de tester les algorithmes avant leur utilisation. Il propose également d’adopter une "équité active". Une telle approche permettrait d’utiliser les "variables sensibles" comme l’âge, la religion ou le genre dans le seul but de "mesurer les biais et d’évaluer les algorithmes". Chez Bruce, "les équipes sont formées aux risques que présentent l’IA". "Les données utilisées pour entraîner les algorithmes sont, quant à elles, sans cesse enrichies". La startup mise également sur la diversité, convaincue que "les problèmes pourront être anticipés et résolus si et seulement si des personnes issues de milieux différents s’y affrontent". La question de la transparence s’avère, en revanche, plus délicate."Pour qu’un processus de recrutement digitalisé fonctionne, il faut dire comment cela fonctionne". Mais, reconnaît Adrien Moreira, "tout en ne se mettant pas en difficulté vis-à-vis de ses concurrents". Mission impossible ?
"Justifier les raisons pour lesquelles telles personnes ont été écartées au profit de telle autre" plutôt qu’entrer dans la boîte noire des algorithmes.
Pas vraiment, répond Jean-Gabriel Ganascia. "Si la transparence consiste à révéler les secrets de fabrication de telle ou telle machine, cela ne sert pas à grand-chose". La transparence revêt tout son sens dès l’instant où "elle nous aide à comprendre pourquoi on a pris telle décision plutôt qu’une autre" ou, dans le cadre d’un recrutement, permet de "justifier les raisons pour lesquelles telles personnes ont été écartées au profit de telle autre". Il s’agit, en d’autres termes, "de ne pas demander aux machines d’assumer notre responsabilité". Aussi, la lutte contre les discriminations dépend d’une responsabilité sociale et algorithmique assumée par les développeurs, les entreprises, les recruteurs et les citoyens.
Marianne Fougère