Le biais du survivant
Où l'on comprend pourquoi nous devrions prêter davantage attention aux losers et pourquoi les absents nous font toujours du tort.
.jpg)
Si un ancien soldat des forces spéciales a pu le faire, pourquoi pas vous ? (Bear Grylls, Man vs. Wild)
REPÈRES
LES FAITS POUR DÉCIDER
Contrairement à ce que son nom suggère, le biais du survivant n’a rien de rassurant. C’est même l’un des biais les plus dangereux pour un décideur — parce qu’il nous donne l’illusion de comprendre… alors qu’il nous manque l’essentiel.
Pour le saisir, il faut commencer par une histoire.
Un Navy bien peu éclairé
Pendant la Seconde Guerre mondiale, la Navy cherche à améliorer la résistance de ses avions. Les militaires recensent ainsi les impacts de balles sur les appareils revenus de mission.
Le constat est clair : la majorité des impacts se concentrent sur le fuselage. C’est donc là qu’il faut renforcer le blindage.
Sauf que.

Les relevés sont transmis au Statistical Research Group, un programme secret qui regroupe quelques-uns des esprits les plus brillants de l’époque — dont le statisticien Abraham Wald.
À la surprise générale, Wald recommande exactement l’inverse : renforcer le blindage… là où il n’y a pas d’impact.
Son intuition est de se demander : où sont les impacts manquants ?
Si l’on retrouve moins d’impacts autour du moteur, ce n’est pas parce que ces zones sont épargnées — c’est parce que les avions touchés à cet endroit ne sont pas revenus.
Les militaires raisonnaient à partir des données disponibles — sans voir qu’elles étaient incomplètes.
Cette erreur est à l'origine du biais du survivant : la tendance à se concentrer sur les succès en oubliant les échecs. À oublier ce que nous ne voyons pas.
En faussant nos analyses, le biais du survivant nous rend vulnérables. Certains ont bien compris comment en tirer partie.
En voici une troublante illustration.
Le courtier de Baltimore, ce génie
Un lundi matin, vous recevez un étrange courrier. Un courtier que vous ne connaissez pas vous annonce qu’une action va monter cette semaine.
Vous n’y prêtez pas vraiment attention — mais le vendredi soir, vous constatez avec amusement que l’action a effectivement monté.
Le lundi suivant, nouveau message. Cette fois, le courtier prédit une baisse. Intrigué, vous suivez l’affaire. Le jeudi soir, le titre est en hausse de +2,1 %. Vous souriez : quel charlatan !
Mais le vendredi, l’action chute de -3 %. Le courtier avait encore raison.
Et ainsi, pendant dix semaines consécutives le courtier prédit sans faille le comportement de l’action.
Statistiquement, la probabilité qu’il ait toujours juste en prédisant au hasard est extrêmement faible : 1 chance sur 1 024, soit environ 0,1 %.
De quoi commencer à se dire que ce type a vraiment un don.
Le courtier de Baltimore, cet escroc
En réalité, il y a un détail que vous ne voyez pas. Le courtier envoie ses prédictions initiales à des milliers de personnes. À une moitié, il prédit une hausse ; à l’autre, une baisse.
À chaque étape, il élimine silencieusement la moitié pour qui il s’est trompé. À la fin, seules restent quelques personnes — celles pour qui il a toujours eu raison.
Vous êtes l’une d’elles.
Nota : Si le courtier écrit à 10 240 personnes la première semaine, 12 personnes finiront par recevoir 10 prédictions correctes.
Dans cet exemple, le biais du survivant n’est plus seulement une erreur de raisonnement. Il devient un outil de manipulation. Le résultat : une illusion parfaite pour le petit groupe final — qui ne manquera pas de souscrire aux services (payants) d’un tel visionnaire.
Comme le résume Jordan Ellenberg (L’Art de ne pas dire n’importe quoi) :
« Le courtier vous raconte une histoire vraie dont vous tirez une conclusion fausse. »
Back to mathébasiques
En mathématiques, le raisonnement part d’hypothèses initiales. Celles-ci sont rendues explicites au début de la démonstration : “Soit”, “Supposons que”, “Considérant que”...
Formulons les hypothèses implicites des deux raisonnements :
- Navy : « Considérant que les avions rentrés à la base constituent un échantillon représentatif de l’ensemble des avions… »
- Vous : « Considérant que le courtier ne formule qu’une seule prédiction chaque semaine… »
Formulées ainsi, ces deux hypothèses apparaissent pour ce qu’elles sont : totalement injustifiées.
Le biais du survivant nous invite donc à nous poser deux questions :
- Qu’est-ce que nous ne voyons pas ?
- Qu’est-ce qu’on a fait disparaître du récit ?
De la Navy au CODIR
À l’école, l’énoncé d’un problème incluait toutes les données nécessaires pour le résoudre. Il s’agissait simplement d’appliquer le bon raisonnement.
Dans la vie professionnelle, cette situation est extrêmement rare.
Supposons qu’un comité doive prendre une décision importante. Une personne — par exemple le responsable de projet, rassemble dans un joli Powerpoint des éléments sur le sujet : délais, coûts, benchmarks, etc. La discussion s’organise alors à partir de ces éléments.
Mais imaginons que ce responsable ait omis (délibérément ou non) de mentionner qu’un projet concurrent a été lancé quelques semaines plus tôt — la décision du comité reposerait alors sur une vision très incomplète de la situation.
En réalité, l’esprit critique devrait nous conduire à nous poser une question simple (David Epstein, Range):
« Est-ce que ce sont toutes les données dont nous avons besoin pour prendre la décision que nous devons prendre ? »
Une astuce consiste à inverser la question “naturelle”. Si l’objet du comité est de valider le lancement d’un nouveau projet, peut-être devriez-vous vous demander :
Quelles sont les raisons de ne pas lancer ce projet ?
Ce type de démarche porte un nom : on en parle dans notre prochaine newsletter consacrée aux Red Teams.



