[Trad] « L’effet Google University »

Article publié par Steven Novella sur Neurologicablog le 6 avril 2015.

Je ne cesse d’être fasciné par l’expérience sociale que nous vivons depuis une dizaine d’années (et si vous êtes entrain de lire cela, c’est que vous faites partie de l’expérience). Internet et les réseaux sociaux ont changé la façon dont nous accédons à l’information et dont nous communiquons. Le schéma pyramidal traditionnel de diffusion de l’information et de l’opinion s’effrite et est remplacé petit à petit par un système inversé de libre accès pour tous.

Je pense que nous sommes encore entrain d’essayer d’entrevoir les conséquences attendues et inattendues de tels changements. L’un de ces effets occasionnellement observé est la propension de certaines personnes à s’attribuer une expertise qu’elles n’ont pas après avoir été capable de faire une « recherche » sur internet. La démocratisation de l’information a conduit à une fausse impression de démocratisation de l’expertise.

Alors que l’accès gratuit à l’information est très répandu, il n’existe pas d’enseignement permettant au public de savoir comment utiliser cette information pour en tirer le meilleur profit et éviter les écueils les plus communs. Les écoles sont généralement dans les choux en ce qui concerne l’enseignement de la gestion de l’information sur le web et beaucoup d’adultes actuels n’étaient déjà plus dans le cursus scolaire avant que les réseaux sociaux n’existent.

Le résultat est « l’effet Jenny McCarthy ». C’est une célébrité qui pense qu’elle peut substituer sa propre opinion de non-expert au consensus solide des experts sur la sécurité et l’efficacité de la vaccination au prétexte qu’elle a fait « ses propres recherches ». Elle est un exemple patent de ce que la recherche d’informations sur le web peut conduire quelqu’un à une confiance infondée dans une opinion non scientifique, et illustre à quel point la « Google University » peut être extrêmement trompeuse. Il y a quelques écueils spécifiques à l’œuvre ici.

Le premier écueil à fait l’objet de la publication récente d’une série d’expériences conduites par Matthew Fisher, doctorant en psychologie cognitive de l’université de Yale. Il a observé spécifiquement la recherche en ligne d’informations et la confiance accordée en nos propres connaissances sur le sujet recherché. Bien entendu, si nous cherchons et lisons des informations sur un sujet, notre confiance dans nos connaissances sur ce sujet augmente. Fisher cependant a essayé de contrôler autant de variables que possible pour détecter un éventuel effet indépendamment de la façon dont cela affectait nos véritables connaissances.

Il a ainsi observé que le public avait une plus grande confiance en ses connaissances même quand il cherchait en ligne sur un sujet plutôt que d’obtenir ces informations directement, quand le sujet ne présentait pas d’informations pertinentes en ligne, quand les informations pertinentes étaient filtrées, ainsi que quand il lisait une information en ligne plutôt qu’en version imprimée. De fait, l’acte de chercher soi même semblait augmenter la confiance du public dans ses propres connaissances.

Ce type d’expérience est évidemment complexe et nous avons besoin de voir des réplications, mais il semble déjà que l’accès à une vaste somme de connaissances que l’on peut passer au crible augmente le degré de confiance que l’on accorde en ses propres connaissances, indépendamment de la pertinence de ces connaissances.

Il me semble qu’il y a d’autres effets à l’œuvre également, comme le biais de confirmation. La recherche internet est une mine d’informations dans laquelle on peut sélectionner (consciemment ou non) celles de ces informations qui confirment ce que l’on croit déjà ou ce que l’on veut croire. Faire une recherche en ligne sur la vaccination donnera des tonnes d’informations soutenant sa sécurité et efficacité, tandis que quantité d’autres informations rabaisseront la vaccination. Pour n’importe quel sujet polémique, le résultat sera le même.

Le biais de confirmation est puissant et dangereux, spécifiquement parce qu’il donne l’illusion que les données soutiennent nos croyances car nous ne percevons pas le point auquel nous avons filtrée et biaisée cette recherche. Internet est un piège à biais de confirmation.

La version extrême de ce phénomène est ce que nous appelons la « caisse de résonnance ». Le filtrage de l’information peut être formalisé en ligne au sein de communautés où une seule perspective est exprimée, et l’information soutenant cette perspective est partagée, alors que l’information opposée est filtrée ou directement contredite. C’est un effet persistant valable aussi bien pour les sites sceptiques et scientifiques que les pseudo-scientifiques.

Un autre problème potentiel est la confusion entre connaissance et expertise. On voit ainsi souvent des personnes potentiellement très intelligentes, avec un gros bagage de connaissances factuelles, qui arrivent cependant à des conclusions absurdes dans lesquelles elles placent un haut degré de confiance. Le problème avec ces foutaises, c’est qu’elles ne s’engagent pas vraiment avec la communauté intellectuelle pertinente.

Il est crucial d’engager la communauté, spécialement pour des domaines de connaissance hautement techniques et complexes. Il peut être très difficile pour un individu de voir la complexité d’un problème sous tous ses angles et de considérer toutes les perspectives. Laissés seuls, nous aurons tendance à nous raconter des histoires satisfaisantes et à devenir de plus en plus confiants dans la véracité de ces histoires. Engager la communauté aura tendance à mettre à l’épreuve ces histoires, conduisant à une compréhension plus profonde et plus nuancée du sujet. C’est là le cœur de la véritable expertise.

Etudier un sujet seul en faisant des recherches internet peut être une fabrique à foutaises en apportant des connaissances factuelles sans réellement les articuler. Dès lors, l’effet caisse de résonnance peut donner l’illusion d’engagement, mais seulement au sein d’une communauté biaisée et non d’une communauté plus large. Le résultat se manifeste par des personnes qui croient erronément à la suffisance de leurs connaissances dans un domaine qu’elles ne comprennent pas vraiment. L’effet Dunning-Kruger frappe également, et ces personnes ne mesurent pas vraiment le gouffre séparant leur compréhension d’un sujet acquise à la Google University, et la profondeur de compréhension des véritables experts.

Conclusion

Internet peut créer une armée de pseudo-experts bien trop confiants en eux-mêmes. Il y a un certain nombre de parades à cela au niveau individuel :

  • L’humilité. Ne pensez pas qu’une petite somme de connaissances fasse de vous un expert. Respectez les opinions des vrais experts. (Vous n’avez pas à être d’accord, mais prenez les au moins au sérieux).
  • Comprenez l’avantage inhérent d’un consensus d’experts plutôt que l’opinion des individus.
  • Lorsque vous faites des recherches sur internet, cherchez également des informations allant à l’encontre de vos croyances ou conclusions actuelles. Essayez de trouver ce que chacun des partis a à dire, et suspendez votre jugement personnel jusqu’à ce que vous pensiez avoir entendu ce que chacun avait à dire.
  • Comprenez que la recherche en ligne est un piège à biais de confirmation. Google lui-même peut biaiser les résultats de votre recherche. Vous devez contourner cela.
  • Comprenez qu’en plus du biais de confirmation, il y a d’autres biais sur internet, comme les caisses de résonnance, la propagande publicitaire et politique, et les informations délibérément déformées pour soutenir une idéologie. Soyez sur vos gardes quant aux fausses informations, et examinez minutieusement une source avant de vous reposer dessus.
  • Comme toujours, il n’y a aucun substitut au scepticisme et à la pensée critique.

[Synth] Sur la reprise et la diffusion au premier degré de trolls pourtant évidents

 

 

J’ai récemment fait la synthèse d’un article de février 2015 paru dans Plos One à propos de la diffusion et de l’enracinement des informations sur internet en fonction de leurs sources conspirationnistes ou scientifiques. En ce jour saint de la bonne blague, du bon gros troll gros comme un camion à tel point qu’il sera encore plus goulument repris au premier degré par des sites de désinformations sans le moindre soucis de vérification de l’information et de scepticisme, je pense salutaire de revenir sur un article un peu plus ancien, mais également instructif sur ce phénomène. Au risque de faire doublon, cet article pose les jalons confirmés par celui de Plos One à propos de la diffusion des trolls. A garder dans un coin de sa bibliographie sur la diffusion des informations conspis donc.

Dans cet article publié dans Journal of Trust Management en décembre 2014, les auteurs présentent une analyse quantitative des schémas de consommation de l’information en fonction de sa qualité par les utilisateurs de Facebook. Les pages ont été catégorisées selon leur sujet et les communautés d’intérêt auxquelles elles se rapportent : a) des sources d’informations alternatives (diffusant des sujets supposément négligés par la science et les médias mainstream ; b) de l’activisme politique en ligne ; c) des médias mainstream. Les auteurs ont mis en évidence des schémas de consommation similaires en dépit de la nature très différente des contenus. Ils ont alors classé les utilisateurs en fonction de leurs schémas d’interactions sur différents sujets et ont mesuré la façon dont ils répondaient face à la diffusion de 2788 fausses informations (imitations parodiques ou histoires alternatives).

Le fonctionnement des systèmes socio-techniques, comme tout système socio-cognitif, nécessite l’interaction des individus dans le but d’accroître leur degré d’information et d’abaisser celui de leur incertitude. Lorsqu’il s’agit en particulier de sélectionner l’information, l’efficacité de tels systèmes repose sur la précision et la complétude de l’information proposée. Dans le but d’avoir une information complète, les individus ont besoin de perspectives où les différents points de vue sont présentés aussi objectivement et rigoureusement que possible. Cependant, la multiplication sans précédant des médias sociaux a permis la diffusion active et massive d’informations alternatives. Il s’agit dès lors de mesurer le rôle de ces informations disponibles sur l’opinion publique.

Le World Economic Forum dans son rapport de 2013 a listé la désinformation numérique massive comme l’un des principaux risques pour la société moderne. La perception du public, la connaissance, les croyances et les opinions sur le monde et son évolution sont formées et modulées à travers le prisme des informations auxquelles ce public a accès, la plupart venant de la presse écrite, de la télé, et plus récemment d’Internet. L’internet a changé la façon dont nous pouvons mesurer la croissance et la formation des idées, en particulier sur les réseaux sociaux et leur contenu créé par les utilisateurs. Ceux-ci facilitent l’étude de l’émergence, de la production et de la consommation de l’information.

En dépit des formules enthousiastes à propos de la façon dont les nouvelles technologies auraient accru l’intérêt du public pour les débats politiques et sociaux d’importance, le rôle des systèmes socio-techniques dans le renforcement de l’information est toujours incertain. En effet, l’émergence de connaissance via ce processus a été surnommée l’intelligence collective, voire même la sagesse des peuples.

Dans cet article, les auteurs montrent un exemple de la façon dont de fausses informations sont particulièrement persistantes sur les médias sociaux et favorisent une sorte de crédulité collective. Les auteurs ont procédé à l’analyse quantitative des schémas de consommation de l’information de qualité différente sur Facebook avec un corpus de 50 pages sur lesquelles ont interagi 2,3 millions d’utilisateurs. Dans le but d’étudier les schémas d’attention et de consommation des différents contenus ils ont divisé les pages en catégories selon le genre d’informations véhiculées.

Les résultats proposés par les auteurs montrent que les utilisateurs avec une forte préférence pour les sources d’informations alternatives, probablement motivés par la volonté d’éviter les manipulations des médias mainstream contrôlés par les gouvernements, sont plus sensibles aux fausses informations. Ces résultats suggèrent que les utilisateurs à l’approche la moins systématique dans l’évaluation des preuves (la plus heuristique) sont plus enclins aux informations confortant leurs croyances préalables même lorsqu’il s’agit de parodies évidentes.

Figure 1 Figure 1 Les utilisateurs les plus enclins à réagir à de fausses allégations intentionnellement diffusées (des trolls) sont les consommateurs habituels de sources d’informations alternatives.

La libre circulation des contenus promeut le regain d’attention des utilisateurs pour des problèmes importants comme la crise financière ou les débats politiques. Cependant, les auteurs montrent dans ce travail que les rumeurs infondées sont persistantes sur les médias sociaux et qu’elles peuvent influencer la construction et la révision des croyances des utilisateurs. Les informations basées sur les théories du complot sont capables de créer un climat de désengagement vis-à-vis de la société mainstream et des pratiques officiellement recommandées concernant entre autres les soins et l’alimentation. La pensée conspirationniste expose le public à des hypothèses infondées et difficiles à vérifier en produisant des explications alternatives à la réalité. Les conspirationnistes sont notamment prompts à expliquer d’importants problèmes politiques et sociaux par le complot orchestré par des individus ou des organisations puissantes.

[Synth] « Science vs. Conspiration : contes collectifs à l’époque de la désinformation »

Les auteurs d’une étude italienne publiée dans Plos One en février 2015 ont étudié la façon dont les informations, selon qu’elles viennent de médias conspirationnistes ou de médias scientifiques mainstream, se diffusaient, s’implantaient, et formaient des communautés sur Facebook. Ils se sont pour cela reposés sur un échantillon de 1,2 millions d’individus.

L’avènement du web a fondamentalement changé la dynamique de l’information. Dans ce cadre récent, la pertinence des faits se fond avec des informations déformées voire totalement fausses conduisant ainsi à la création d’un mix d’informations totalement nouvelles.

Comme il a déjà été souligné, les individus peuvent ne pas être informés ou être désinformés, et les corrections apportées lors de la diffusion et l’émergence de croyances erronées ne sont pas efficaces. On a vu par exemple que les campagnes de debunking en ligne avaient plutôt tendance à créer un effet contraire à celui qui était recherché en renforçant les croyances des tenants de théories conspirationnistes.

Dans cet article, une équipe de chercheurs italiens a classé les schémas de traitement de l’information des internautes selon que celle-ci vienne de médias scientifiques mainstream ou de médias conspirationnistes. Les médias scientifiques diffusent des informations de même nature et les sources en sont faciles d’accès. Les médias conspirationnistes aspirent à diffuser les informations négligées et manipulées par les premiers. Plus précisément, les thèses conspirationnistes tendent à réduire la complexité de la réalité en expliquant certains aspects sociaux ou politiques comme des complots conçus par des individus ou des organisations puissantes. Puisque ce genre de positions peut parfois impliquer le rejet de la science, des explications alternatives sont invoquées pour remplacer les preuves scientifiques. Par exemple, les personnes rejetant le lien entre VIH et SIDA croient généralement que ce dernier a été créé par le gouvernement des Etats-Unis afin de contrôler la population afro-américaine.

La diffusion de la désinformation dans un tel contexte peut être particulièrement difficile à détecter pour l’utilisateur à cause de la tendance naturelle des gens à adhérer à des informations en accord avec leur propre système de croyances.

L’augmentation des connaissances doublée d’un monde interconnecté et soutenue par l’accélération sans précédent des progrès scientifiques à exposé la société à un degré croissant de complexité des phénomènes observés. En effet, un glissement du paradigme dans la production et l’utilisation des contenus s’est opéré, accroissant considérablement les volumes aussi bien que l’hétérogénéité des informations accessibles aux utilisateurs. N’importe qui sur le web peut produire, suivre et diffuser activement des contenus et participer de ce fait à la création, à la diffusion et au renforcement de différents contes collectifs. Une telle hétérogénéité de l’information a conduit à l’agrégation des gens autour d’intérêts, de visions du monde et contes communs.

Les contes basés sur les théories du complot tendent à réduire la complexité de la réalité et contiennent intrinsèquement l’incertitude qu’elles génèrent de surcroit. Ils sont capables de créer un climat de désengagement vis-à-vis des médias mainstream et des pratiques officiellement recommandées comme la vaccination, le régime alimentaires, etc.. En dépit de l’enthousiasme général à propos l’intelligence collective, le rôle des réseaux sociaux dans le renforcement de l’information dans les débats et leurs effets sur l’opinion publique reste peu clair. Cependant, le World Economic Forum à listé la désinformation numérique massive comme l’un des risques majeurs des sociétés modernes.

Une multitude de mécanismes anime le flot et l’acceptation de fausses rumeurs qui à leur tour créent de fausses croyances rarement corrigées une fois adoptées par un individu. Le processus d’acceptation d’une allégation (qu’elle soit documentée ou non) pourrait être altéré par l’influence des normes sociales ou par la cohérence avec le système de croyance de l’individu. Une littérature importante s’intéresse aux dynamiques sociales et aux réseaux sociaux dans la contagion et le renforcement de ces croyances. Il a été montré récemment que des rumeurs infondées sur le web, comme le lien vaccins / autisme, le réchauffement climatique induit par les chemtrails, ou les informations secrètes des gouvernements sur les aliens, et les informations mainstream comme les nouvelles scientifiques, sont diffusées d’une façon complètement différente.

L’omniprésence de contenus non fiables pourrait conduire à un mélange d’histoires infondées avec leurs versions satiriques (par exemple la présence de citrate de sildénafil, le principe actif du viagra, dans les chemtrails, ou encore les effets anti hypnotiques du citron, plus de 45 000 partages sur Facebook). Il y a en fait des groupes très distincts, constitués de trolls, fabriquant des pages Facebook satiriques et caricaturant les médias conspirationnistes. Leurs activités peuvent aller des commentaires controversés aux satires et aux memes conspirationnistes, à la fabrication de citations purement fictives et hautement irréalistes ou sarcastiques. Assez souvent, ces memes deviennent viraux et sont utilisés comme preuves sur le web par des activistes politiques.

Dans le travail dont il est question ici, les auteurs se sont intéressés aux schémas de consommation des utilisateurs en fonction de types très distincts d’information. Se concentrant sur le contexte italien et aidés en cela par des pages très actives dans le debunking de rumeurs infondées, ils ont construit un atlas des sources d’informations scientifiques et des sources conspirationnistes sur Facebook. Les pages y sont classées en fonction du genre d’informations qu’elles diffusent et de leur propre description comme visant à des explications alternatives à la réalité, ou des nouvelles scientifiques. Le but des auteurs n’était cependant pas d’alléguer que les informations véhiculées par les sources conspirationnistes sont nécessairement fausses, mais plutôt de voir comment les communautés se forment autour de différentes informations, interagissent et consomment leurs informations préférées.

Les auteurs ont pris en compte les interactions des utilisateurs avec des pages publiques, c’est-à-dire les likes, les partages et les commentaires. Chacune de ces actions a une signification particulière. Un like renvoie à un feedback positif du post, un partage exprime la volonté d’augmenter la visibilité d’une information, un commentaire est la façon de créer le débat en ligne. Les commentaires peuvent être négatifs ou positifs.

L’analyse débute par la délimitation des schémas d’utilisation des informations et des pages structurant les communautés. Ils ont attribué une polarisation aux utilisateurs dès lors que ceux-ci présentaient 95% de feedback positifs pour une catégorie exclusive de pages (conspirationniste ou scientifique). Selon la littérature sur la dynamique des opinions, deux individus sont capables de s’influencer l’un l’autre uniquement si la distance entre leurs opinions est en dessous d’un certain seuil de sorte à ce que les utilisateurs consommant des informations différentes et opposées tendent à s’agréger en des clusters isolés les uns des autres. De plus, les auteurs ont mesuré l’activité des commentaires des uns et des autres dans les communautés opposées, et ont mis en évidence que les utilisateurs polarisés sur les sources conspirationnistes étaient plus concentrés sur les posts de leur propre communauté et plus enclins à la diffusion de leur contenu. D’un autre côté, les utilisateurs de médias scientifiques se montrent moins actifs dans la diffusion de leurs informations et plus enclins à commenter les pages conspirationnistes.

journal.pone.0118093.g005

Les auteurs ont finalement testé la réponse des utilisateurs polarisés face à 4709 théories conspirationnistes satiriques ou complètement aberrantes. 80,86% des likes et 77,92% des commentaires venaient d’utilisateurs conspirationnistes. Ces résultats, cohérents avec de précédentes recherches, mettent en évidence pour les auteurs la relation entre la croyance dans les théories du complot et la nécessité d’un cloisonnement cognitif consistant dans une attitude d’évitement des examens approfondis des informations qui remettraient en cause ces théories. Ce mécanisme s’illustrerait dès lors comme central dans la diffusion de fausses allégations.