L'IA est-elle trop biaisée pour être utile aux RH ?

Sep 08, 2020

4 mins

L'IA est-elle trop biaisée pour être utile aux RH ?
author
Laetitia VitaudLab expert

Future of work author and speaker

NOUS SOMMES TOUS BIAISES - C’est un fait : nous sommes tou·te·s victimes des biais cognitifs. Vous savez ces raccourcis de pensée de notre cerveau, faussement logiques, qui nous induisent en erreur dans nos décisions quotidiennes, et notamment au travail. Dans cette série, notre experte du Lab Laetitia Vitaud identifie les biais à l’oeuvre afin de mieux comprendre comment ils affectent votre manière de travailler, recruter, manager… et vous livre ses précieux conseils pour y remédier.

Depuis plusieurs années, il y a une prise de conscience en entreprise des biais cognitifs qui affectent le recrutement et le management. La plupart des recruteurs affirment connaître l’existence des biais cognitifs et vouloir les neutraliser pour améliorer les processus de recrutement et les rendre moins injustes.

Explication

L’intelligence artificielle recèle de nombreuses promesses pour les ressources humaines : elle peut aider à prévenir les biais humains et élargir le vivier de candidats. De nombreuses applications et plates-formes ont été développées ces dernières années pour fournir aux professionnel.le.s des RH les outils appropriés pour mieux faire leur travail, lutter contre les biais et accéder à de nouveaux viviers de candidat.e.s féminins ou issu.e.s de minorités.

Par exemple, Textio utilise l’IA pour aider les recruteurs à « trouver les bons mots en vous donnant accès aux données de recrutement quand vous en avez besoin ». HireSweet vise à aider les entreprises à « trouver les candidats parfaits pour le poste mais qui ne sont pas en recherche active ». Drafted est une startup qui promet de vous aider à « mieux recruter des talents dans votre réseau d’entreprise ».

Conséquences pour les ressources humaines

L’IA se nourrit des jeux de données qui lui sont fournis. C’est pourquoi un biais peut s’installer à l’insu de ceux qui l’utilisent. Les outils d’IA finissent par reproduire et parfois amplifier les biais présents dans les données collectées et la conception des algorithmes. Les « biais algorithmiques », ce sont toutes les erreurs systématiques d’un système informatique qui engendrent des décisions injustes, en privilégiant un groupe d’individus plutôt qu’un autre.

L’exemple des logiciels de reconnaissance faciale illustre bien le problème : « une étude du MIT portant sur trois systèmes de reconnaissance faciale a révélé que leur taux d’erreur pouvait atteindre 34 % pour les femmes noires - un taux près de 49 fois supérieur à celui concernant les hommes blancs ». Basés sur des jeux de données incomplets et biaisés du point de vue de l’origine ethnique, les logiciels de reconnaissance faciale sont défectueux. C’est pourquoi après le meurtre de George Floyd, IBM a annoncé sa décision d’arrêter de développer des logiciels de reconnaissance faciale pour la « surveillance de masse ou le profilage racial ».

« L’IA est biaisée parce qu’elle simule le comportement humain », explique cet article de la Harvard Business Review. Sur de nombreuses plateformes et applications, les biais liés à la couleur de peau, au genre et à l’orientation sexuelle sont renforcés par des algorithmes programmés par des personnes biaisées. Les décisions RH prises à l’aide d’outils d’IA ne sont donc pas à l’abri des biais. Comme l’utilisation de l’IA promet de se développer dans le domaine du recrutement, certains experts tirent la sonnette d’alarme : les outils RH devraient être mieux contrôlés afin que les biais soient éliminés.

Dans le monde de la tech, le problème des biais liés à l’IA est omniprésent car il y a trop peu de diversité. 73% des cadres supérieurs d’Amazon sont des hommes. Facebook ne compte que 32,6 % de femmes parmi ses dirigeant.e.s. Les outils basés sur l’IA tirent des conclusions des données historiques qui ne reflètent aucune diversité. De plus, il y a trop peu de femmes qui travaillent dans le domaine de l’IA : très peu de solutions sont développées par des femmes.

Comment y remédier ?

Le fait que l’IA reproduise les biais humains ne signifie pas qu’il faille l’abandonner complètement. Cela signifie que des processus rigoureux doivent être mis en œuvre pour l’améliorer. Il est possible de combattre les défauts constatés dans les outils d’IA. C’est l’objectif du mouvement OpenAI et du Future of Life Institute qui ont établi une liste de principes de design pour rendre l’IA plus juste et plus éthique. Le principe le plus important est que « l’IA doit être conçue de manière à pouvoir être auditée afin que ces biais soient éliminés. Un audit d’IA devrait fonctionner comme le test de sécurité d’une nouvelle voiture avant que quelqu’un ne la conduise ».

Voici quatre façons d’éliminer les biais de l’AI et d’améliorer les décisions en matière de RH :

  1. Passez en revue vos données avant de les transmettre à l’IA. L’IA apprend à partir des données, donc si les données sont meilleures, elle marchera mieux. Recueillez des données plus diverses et corrigez les biais existants. Idéalement, vos données devraient refléter votre population cible. Elles devraient refléter vos objectifs d’embauche donc vous devrez peut-être supprimer les données historiques biaisées.

  2. Concevez un cadre éthique pour combattre les biais liés à l’IA. C’est ce que Google entend faire avec son “Conseil consultatif externe sur les technologies avancées” (ATEAC). “Un grand pouvoir s’accompagne d’une grande responsabilité”, disait Spiderman. Toute entreprise qui utilise ou développe une IA doit se pencher sur cette responsabilité.

  3. Tenez compte des biais dans le choix de vos outils RH. Certaines solutions d’IA sont conçues pour remédier aux biais. D’autres ne le sont pas. Choisissez vos outils intelligemment ! Heureusement, les solutions nouvelles reflètent de plus en plus une certaine prise de conscience du problème donc le choix pourrait devenir plus facile à l’avenir.

  4. Faites en sorte que des humains soient toujours impliqués dans vos décisions de RH. Quels que soient les outils d’IA que vous utilisez, vous les rendrez plus efficaces en mettant des humains dans la boucle. L’intelligence artificielle fonctionne mieux avec des êtres humains qui peuvent constamment vérifier les processus. Elle ne devrait jamais fonctionner comme une boîte noire.