[Trad] L’effet « backfire », pas si important que ça.

Cet article a été publié par Steven Novella sur Neurologicablog le 4 janvier 2018.

Des recherches ont montré par le passé que lorsque nous étions confrontés à des faits contraires à nos croyances idéologiques, un certain pourcentage d’entre nous allait ignorer ces faits. C’est ce qu’on a appelé l’effet backfire. Cette notion a rapidement été adoptée par les sceptiques scientifiques, car elle semble confirmer notre expérience selon laquelle il est vraiment très difficile de faire changer quelqu’un d’avis.

Cependant, une publication plus récente suggère que l’effet backfire pourrait ne pas exister, ou du moins être extrêmement rare. Une série d’études publiée il y a peu semble en effet pousser l’effet backfire à la remise, bien qu’il ne s’agisse probablement pas de sa fin définitive.

Pour être clair, les gens s’engagent toujours dans des raisonnements motivés lorsque des émotions sont en jeu. Il y a des preuves significatives que les gens filtrent les informations qu’ils recherchent, remarquent, acceptent, et dont ils se souviennent. L’idéologie prédit également à quel point les gens seront réceptifs aux corrections factuelles.

L’effet backfire en revanche est très spécifique. Cet effet se remarque non seulement quand les gens refusent les corrections factuelles, mais lorsqu’ils créent de surcroît des contre-arguments à ces corrections qui les enfoncent un peu plus dans les croyances erronées. Il est probablement temps pour les sceptiques de renoncer à cet élément de compréhension, ou du moins de ne le manipuler qu’avec de grosses guillemets.

La nouvelle publication, de Wood et Porter, a porté sur 10100 personnes et 52 problèmes qui leur étaient présentés. Recrutés en ligne, ces volontaires devaient indiquer à quel point ils étaient d’accord avec des déclarations d’ordre politique telles que :

« Le président Obama a été plus tolérant sur l’immigration illégale que les présidents précédents. »

Ils étaient alors soit exposés, soit non exposés, à une déclaration factuelle telle que :

« En fait, d’après le Département de la Sécurité Intérieure, le président Obama a deux fois plus déporté les immigrants clandestins que son prédécesseur, le président George W. Bush. »

Les personnes interrogées devaient alors dire de nouveau à quel point elles étaient d’accord avec la déclaration de départ, et l’étude a ainsi mesuré l’impact de l’exposition factuelle sur l’opinion de ces personnes. Il en ressort ainsi que :

« Parmi les libéraux, 85 % des déclarations se trouvaient corrigées par l’exposition factuelle, 96 % parmi les modérés, et 83 % parmi les conservateurs. L’effet backfire n’a été observé chez aucune des différentes cohortes idéologiques ».

Ces études indiquent que les libéraux et les conservateurs [NdT : la gauche et la droite dans le gradient politique états-unien] sont équivalents dans leur réponse aux informations factuelles comme étant généralement forte, sans qu’aucun des deux groupes ne montre véritablement d’effet backfire. Le groupe des modérés avait la meilleure réponse aux corrections factuelles, indiquant peut être un avantage cognitif à ne pas avoir d’identité idéologique ou partisane forte.

Les auteurs discutent par la suite de l’interprétation à faire de tout cela au regard de la littérature déjà publiée. Il faut d’abord considérer la population étudiée. Les études antérieures sur l’effet backfire recouraient à des étudiants de deuxième cycle universitaire, et pourraient ne pas représenter correctement la population générale. Les études ici discutées reposent sur le recrutement en ligne, et, à nouveau, pourraient être biaisées à ce titre. Cependant, les 5 études considérées ont comparé les résultats à un échantillon nationalement représentatif, et montré des résultats similaires.

A mon sens, il y a deux limites principales à cette étude : la première est qu’il est difficile d’extrapoler depuis le cadre artificiel d’une étude psychologique à une discussion émotionnellement chargée lors d’un repas (ou dans les commentaires d’un blog). Il semble probable que les gens sont bien plus portés à la raison dans les premières conditions que dans les suivantes.

Ensuite, nous ne savons pas à quel point l’effet de correction peut être persistant dans le temps. Les gens peuvent très bien corriger leurs croyances, puis oublier rapidement ces corrections qui vont à l’encontre de leur vision du monde. Cela serait cohérent avec mon expérience personnelle, du moins à certains moments. Il me semble effectivement que je peux parfois corriger les fausses informations de quelqu’un, avec des références objectives, mais qu’un mois plus tard cette personne répète ses croyances de départ comme si la conversation précédente n’était jamais arrivée. J’aimerai voir un suivi à long terme de ces études.

Si les gens ne répondent pas aux faits qui vont à l’encontre de leur idéologie par l’effet backfire, que font-ils ? Les auteurs émettent l’hypothèse que les gens sont fondamentalement paresseux. Car en effet, former des contre-arguments est très coûteux d’un point de vue cognitif, coût que les gens auront tendance à éviter. Il est dès lors bien plus facile de simplement ignorer les faits nouveaux.

De plus, on sait que dans une certaine mesure, les gens non seulement ignorent les faits, mais qu’ils pensent par ailleurs que les faits importent peu, et estiment que les faits spécifiques qui leur sont présentés peuvent ne pas être pertinents pour leurs croyances idéologiques. Ils peuvent aussi penser que les faits ne sont, de manière générale, pas importants.

Ce que cela signifie généralement, c’est qu’ils rejettent les faits comme étant biaisés et subjectifs : vous avez vos faits, ils ont les leurs, et chacun ses opinions. Concrètement ils choisissent à quels faits croire.

Bien entendu, tout cela est exacerbé par l’effet de la chambre à échos où les gens sont surexposés aux informations qu’ils recherchent et qui sont justement en phase avec leur idéologie.

Je pense qu’il est important de voir que l’effet backfire est un phénomène peu important sinon inexistant, car il dépeint les gens comme irrémédiablement biaisés et suggère que les tentatives pédagogiques pour les faire changer d’avis sont vouées à l’échec. Il suggère que le problème des croyances infondées est impossible à résoudre et inhérent à la psychologie humaine.

Il y a pour sûr des effets psychologiques fortement impliqués dans la formation des croyances des gens, mais l’immunité aux faits n’est pas nécessairement l’un d’eux. Au contraire, il semble plutôt que la culture et le comportement jouent un rôle important, et il s’agit là de variables modifiables.

Je pense qu’il est important pour les gens de voir généralement l’effet néfaste de fortes postures partisanes et idéologiques sur leurs capacités à raisonner. L’idéal vers lequel nous devrions pencher est une approche bayesienne, au cours de laquelle nous évaluons toutes les informations factuelles de manière non biaisée et nous formons nos conclusions sur la base de ces faits, en les mettant à jour si nécessaire. Nous dévions de l’idéal bayesien lorsque nous sommes motivés par l’émotion, l’identité, ou simplement la paresse intellectuelle.

Nous avons par ailleurs besoin de penser la manière dont nous obtenons nos informations, car elle peut fortement biaiser les informations dont nous avons connaissance et auxquelles nous croyons. Si nous nous laissons porter par le courant de notre identité, nous nous enfermons nous mêmes dans des cocons confortables où les échos de nos propres croyances nous exposeront seulement aux faits qui flattent au mieux notre idéologie. Cette boucle de rétro-action positive nous maintiendra non seulement dans notre idéologie, mais la polarisera, nous rendant plus radicaux, et moins raisonnables.

En conséquence, nous devrions nous tenir à distance de toute identité idéologique, de tout système de croyance particulier. Mais surtout, nous devrions rechercher des informations basées sur leur fiabilité et non sur leur compatibilité préalable avec nos croyances. Pour arriver à corriger ce type de biais nous devrions en fait chercher spécifiquement des informations qui contredisent nos croyances du moment.

Il y a des comportements que tout le monde peut adopter, nous ne sommes pas obligés de nous vautrer dans nos croyances, insensibles aux faits et à la logique. Cela nécessite cependant beaucoup de travail, et peut être est-ce là la plus grosse barrière à franchir : la simple paresse intellectuelle.

2 commentaires sur “[Trad] L’effet « backfire », pas si important que ça.

  1. Merci pour l’article.

    Si j’ai bien compris le propos, l’effet backfire n’est pas automatique (ce qui me semble logique en fonction des contexte de discussion) mais il serait fortement dépendant à deux phénomènes : la valeur émotive que l’on attribue à des propos, en l’occurrence les nôtre et en plus, la paresse intellectuelle.

    J’ai l’impression de retrouver les deux éléments bases du phénomène de bulle de filtre volontaire. Du coup, je m’interroge sur la corrélation entre les deux phénomènes…

    Des idées sur la chose ?

    J’aime

  2. Selon mon expérience auprès d’autres penseurs -autrement dit, des gens prêts à discuter de manière rationnelle sans entrer dans l’émotivité- il faut toujours essayer de comprendre le point de vue de « l’adversaire » et les raisons qui l’y ont amené afin de déterminer si sa posture n’est pas contradictoire, auquel cas l’aider à la rendre plus cohérente dans son propre système de pensée.

    Avec cette méthode, on saura rapidement si l’interlocuteur accepte la logique comme un fondement de la pensée et est donc prêt à faire des concessions auprès d’une autre pensée que la sienne, pas seulement dans une tolérance idéologique socialement acceptable, mais dans une véritable réflexion sur le sujet abordé.

    Ce n’est pas parfait mais je pense que c’est une méthodologie applicable à n’importe quelle audience (en substance : comprendre sincèrement l’interlocuteur, améliorer son point de vue en pointant les failles logiques puis introduire des idées contradictoires).

    J’aime

Laisser un commentaire