Comment le biais du survivant vous fait surévaluer vos chances de réussite

04. 2. 2020

2 min.

Comment le biais du survivant vous fait surévaluer vos chances de réussite
autor
Laetitia VitaudLab expert

Future of work author and speaker

NOUS SOMMES TOUS BIAISES - C'est un fait : nous sommes tous victimes des biais cognitifs. Vous savez ces raccourcis de pensée de notre cerveau, faussement logiques, qui nous induisent en erreur dans nos décisions quotidiennes, et notamment au travail. Dans cette série, notre experte du Lab Laetitia Vitaud identifie les biais à l'oeuvre afin de mieux comprendre comment ils affectent votre manière de travailler, recruter, manager... et vous livre ses précieux conseils pour y remédier.

Explication

Le biais du survivant consiste à tirer des conclusions trop hâtives à partir d’un jeu de données incomplet. C’est une forme de biais de sélection consistant à surévaluer les chances de succès d’une initiative en concentrant l’attention sur les sujets ayant réussi mais qui sont des exceptions statistiques (des « survivants ») plutôt que sur des cas représentatifs.

L’illustration la plus célèbre (et la plus claire) concerne les avions alliés envoyés pour bombarder les zones occupées pendant la Seconde guerre mondiale. Une étude avait recommandé, au vu des dommages causés aux avions qui revenaient de mission, de blinder les endroits de l’avion qui recevaient le plus de balles.

Mais le statisticien Abraham Wald, déterminé à minimiser la perte de bombardiers sous les feux ennemis, a identifié une dangereuse erreur dans ce raisonnement. En effet, les études ne tenaient compte que des aéronefs qui avaient « survécu » et étaient revenus de mission. Elles ne tenaient aucun compte de ceux qui s’étaient écrasés. Pour lui, il fallait au contraire blinder les endroits des appareils qui présentaient le moins de dommages car les endroits endommagés des avions revenus à la base sont ceux où l’avion peut encaisser des balles et « survivre ». À l’inverse, sa supposition était que lorsqu’un avion était endommagé ailleurs, il ne revenait pas. Ce sont donc les endroits non endommagés chez les « survivants » qui devaient être blindés !

En matière d’interprétation des chiffres, nous sommes tous victimes de biais de sélection qui nous rendent aveugles aux réalités sous-jacentes. Il faut donc toujours se demander d’où viennent les chiffres, comment ils sont sélectionnés et ce qu’ils signifient réellement. Par exemple, doit-on interpréter la baisse du nombre de plaintes pour viol comme quelque chose de positif ? Pas forcément, car il est possible qu’il y ait davantage de viols qui n’ont pas donné lieu à une plainte parce que les victimes ont peur de s’exposer en portant plainte. À l’inverse, une augmentation du nombre de plaintes peut être le signe d’un climat de confiance où il est plus facile de parler.

Conséquences pour les ressources humaines

Les big data prennent une place de plus en plus grande dans la gestion des ressources humaines. Par conséquent, les RH ne sont pas à l’abri des biais de sélection qui nous conduisent à interpréter les données de travers. De nombreux biais peuvent contribuer à façonner les algorithmes conçus pour sélectionner les candidats.

En matière de ressources humaines, l’intelligence artificielle ne peut utiliser que les données pré-sélectionnées pour elle, des données « survivantes » marquées par une histoire de biais humains. Dans certains milieux, les données collectées sont loin d’être représentatives de la population. Dans la Tech ou la finance, par exemple, les données historiques n’incluent pas beaucoup de femmes. Le biais du survivant est l’un de ceux qui risquent le plus d’être perpétués et même amplifiés par l’intelligence artificielle.

Comment y remédier

Il existe des moyens de neutraliser certains biais en « désactivant » les critères qui posent problème (le genre, l’origine ethnique ou les années d’expérience, par exemple) quand certaines catégories sont sous-représentées. En amont, il est important de collecter des données les plus représentatives possibles pour que les biais ne soient pas reproduits par la machine.

Il est préférable d’appréhender les outils d’IA dans les ressources humaines comme des « assistants » des humains dans des systèmes conçus pour neutraliser les biais et réduire la discrimination.

Probíraná témata