Décrit depuis les années 1990, l’effet Dunning-Kruger – soit l’excès de confiance en soi généré par l’incompétence – est récemment revenu sur le devant de la scène. À l’occasion de la crise sanitaire, débats scientifiques, émotions vives et réseaux sociaux ont créé le creuset idéal pour de nouvelles pathologies de la certitude et du doute.
Savoir que l’on ne sait rien : la sagesse socratique a un ennemi juré nommé Dunning-Kruger. En 1999, deux chercheurs américains en psychologie, David Dunning et Justin Kruger, publient une étude sur le sentiment de « surconfiance » engendré par l’incompétence. Leur inspirateur ? McArthur Wheeler, un braqueur de banques qui s’était couvert le visage de jus de citron en pensant que, si ce liquide permettait de fabriquer de l’encre invisible, il rendrait aussi ses traits indétectables par les caméras de surveillance… Pour approcher ce curieux phénomène, ils ont soumis les participants à des épreuves dans le domaine de l’humour, du raisonnement logique et de la grammaire. Chaque fois, les sujets les moins capables surestimèrent leurs performances tandis que les meilleurs se sous-évaluèrent. Quand les participants découvrirent les copies de leurs camarades, une autre constante se dégagea : les meilleurs ont compris qu’ils étaient en effet meilleurs, tandis que les moins bons… ont persisté dans leur sentiment de supériorité.
Syndrome de l’imposteur
On pourrait être tenté d’appeler bêtise cet aveuglement, mais selon Dunning et Kruger, l’intelligence n’entrerait pas ici en ligne de compte. Nous serions plutôt face à un « biais cognitif » qui nous concerne tous à un moment ou à un autre de notre vie. Nous l’expérimentons généralement quand nous commençons à nous intéresser à une discipline, qu’il s’agisse de la statistique, de l’œnologie ou de l’histoire du Moyen Âge : en quelques heures, on a l’impression d’en avoir appris des tonnes ; un monde s’ouvre à nous. Nous gravissons en réalité la « montagne de la stupidité ». Mais plus nous progressons dans nos connaissances, plus nous prenons la mesure de tout ce que nous ne savons pas : nous descendons dans la « vallée de l’humilité ». Ce processus va de pair avec une augmentation de nos capacités métacognitives (notre capacité à « penser à propos de nos propres pensées »). La vallée de l’humilité, malheureusement, mène parfois à un véritable précipice : celui du sentiment d’illégitimité encore appelé « syndrome de l’imposteur ».
« C’est le phénomène inverse de Dunning-Kruger », observe Émilie Caspar, chercheuse en sciences sociales et cognitives à l’ULB. « On le rencontre beaucoup chez les chercheurs, à différents moments de leur carrière et, surtout, au cours des premières années. Non seulement ils ont l’impression de ne pas maîtriser leur sujet, mais aussi de ne pas correspondre à l’attente sociale vis-à-vis des universitaires : cela peut conduire à une grande détresse psychologique, avec des symptômes dépressifs et des abandons. » Un biais influencé par un autre biais, celui du genre. « Les études montrent que les femmes ont généralement tendance à sous-estimer leurs compétences et donc à prendre moins facilement la parole si elles ont l’impression de ne pas tout savoir sur le sujet. » La composition des plateaux d’experts depuis le début de la crise du coronavirus en est un symptôme parmi d’autres.
Des biais en cascade
Mais l’effet Dunning-Kruger a aussi largement eu droit de cité depuis ces derniers mois. Qui, à un moment ou à un autre, ne s’est pas senti plus éclairé que son voisin sur le port du masque, la contagiosité des enfants ou l’utilité du confinement ? Combien de fois a-t-on entendu, y compris chez des personnalités politiques, des prises de parole débuter par « Je ne suis pas médecin, mais… » ? Un phénomène largement amplifié par les réseaux sociaux et par la prééminence de la « Google University ». « Le biais de surconfiance est fortement lié au biais de confirmation qui consiste à rechercher uniquement des informations qui vont dans le sens de ce qu’on croit », commente Émilie Caspar. « Or, les réseaux sociaux permettent d’accéder très rapidement à des biais de confirmation et donc de se juger encore plus experts qu’au départ. La plupart des gens sont simplement contents de se sentir confirmés dans leur hypothèse. Ils ne vont pas aller plus loin : chercher qui a écrit l’article, quel était l’intérêt de cette personne, s’il y a d’autres points de vue divergents, etc. »
Une fois ces biais mis en place, on entre dans une phase de dissonance cognitive qui consiste à négliger ou à ignorer toutes les informations qui ne viennent pas confirmer notre hypothèse de départ. En nous proposant des contenus qui « pourraient nous plaire », la logique des réseaux flatte notre résistance au changement. « Pour une grande majorité d’individus, se remettre en question est un processus cognitif très difficile, quel que soit le niveau d’expertise », note Émilie Caspar. Probablement parce que ce processus s’accompagne d’émotions négatives telles que l’incertitude et la perte de contrôle, voire parce qu’il ouvre sur des gouffres que nous ne voulions pas voir et que comblaient adéquatement nos croyances. Ainsi, la perméabilité aux théories complotistes serait liée à un besoin élevé de « fermeture cognitive ». Autrement dit, à la nécessité de trouver rapidement une réponse apparemment cohérente à une situation vécue comme intolérablement complexe.
Pour la chercheuse, la situation s’aggrave encore d’un cran lorsque ces biais de surconfiance, de confirmation et de dissonance cognitive croisent un quatrième larron, l’« effet de halo ». Celui-ci entraîne une perception positive de ce qu’une personne dit ou fait si cette personne a produit une première impression favorable. Soit le piège tendu par les personnalités charismatiques, à la Didier Raoult. « Raoult est un chercheur qui a beaucoup publié et même si ses méthodes ont été remises en cause, cet effet de halo demeure. On se dit qu’il doit être sérieux. D’autant que cet effet a lui aussi été fortement augmenté par les réseaux sociaux : à l’arrivée, tout le monde avait un avis sur l’hydroxychloroquine alors que probablement seul 0,1 % de la population a les compétences techniques et scientifiques pour comprendre les études qu’il propose et sa méthode. » En ligne, nos tendances cognitives à la déraison sont plus que jamais en roue libre. Connaître l’existence de ces biais est un premier pas pour s’en prémunir.