Info ou intox? Comment déchiffrer ce qu’on apprend

Via les réseaux, je suis tombée sur un article super complet et très intéressant sur les sources de connaissances. L’article est en anglais, et je n’ai pas eu le courage de le traduire en entier (désolée), mais je voulais récapituler les points importants ici, parce qu’à mon sens c’est utile dans tous les domaines, y compris les animaux.


Pourquoi il est si difficile de faire la différence entre la vérité et les fausses informations.

On pourrait croire qu’il suffit de reconnaitre les vérités et rejeter les fausses informations, mais les humains ne sont pas bons dans ce domaine. On rejette souvent des vraies informations et on croit souvent des choses qui sont fausses. Absolument tout le monde le fait. Le but n’est donc pas de se dire qu’untel ou une telle sait TOUT, mais bien que chaque personne regarde le monde à travers des lunettes partiellement cassées. Cette affirmation doit rester dans un coin de notre tête et nous devons analyser toutes les données en SACHANT CELA (nous avons notre verre cassé, et la personne en face aussi).

Remontons dans le temps, à l’Âge Préhistorique de nos ancêtres chasseurs cueilleurs. A cette époque nous découvrions les choses par nous-mêmes : une hache, une roue, comment faire du feu. On montrait ensuite au groupe : Regarde, c’est comme ça qu’on fait! On passait l’information directement (en parlant et en montrant) à nos amis et notre famille.

Nous avons ensuite inventé l’écriture, qui a permis de transmettre l’information non seulement dans l’espace mais aussi dans le temps, on peut actuellement lire des livres écrits il y a des centaines d’années. Toutes les connaissances de l’humanité accumulées à notre disposition. Mais toutes les idées folles de l’humanité aussi sont à notre disposition, à portée de clic à présent. Il faut donc décider de trier la masse d’information que l’on reçoit et ne garder que ce qu’on pense vrai.

C’est là qu’interviennent les biais cognitifs. Ils nous servent au départ pour ne pas devoir tout évaluer et pouvoir prendre des décisions rapides (souvent utiles dans la préhistoire pour ne pas se faire tuer). L’humain a appris à faire confiance à sa propre tribu et à ne pas se fier aux autres, qui peuvent mentir pour essayer de nous tuer (les tribus se faisaient la guerre).

Notre pensée est donc biaisée et ce de deux manières principalement :

  • Nous  rejetons les nouvelles informations quand elles viennent d’un étranger, même si elles sont vraies;
  • Nous croyons plus facilement les informations que nous entendons dans notre « groupe » (famille, amis…) et les informations qui reviennent souvent, même si elles sont fausses.

Il existe en réalité plein de biais cognitifs!

Type 1 : rejeter de manière incorrecte les vraies informations

Les idées nouvelles induisent de l’anxiété et même de la colère, tout simplement parce qu’elles ne nous sont pas familières. Cela fait partie de notre héritage historique : les choses habituelles sont « prouvées » sans danger, alors que ce qui est nouveau peut être dangereux!

La dissonance cognitive induit un conflit entre ce qu’on fait et ce qu’on sait. Cela provoque un inconfort mental et on change l’une ou l’autre variable. Par exemple, les gens qui fument et savent que ça peut causer le cancer ont tendance à dire « Je préfère mener un vie courte et en profiter qu’une longue vie ennuyeuse! », ils changent leur « savoir » pour coller à leur action. Inversement, ceux qui arrêtent de fumer changent leur action et gardent leur savoir. Il est cependant plus difficile de changer de comportement plutôt que de croyance; on choisit toujours l’alternative la plus attrayante.

Toute l’idée d’accepter qu’une partie de nos connaissances peut être fausse ou incomplète, et que nous devons changer nos opinions est carrément douloureux, alors la plupart du temps nous l’évitons!

L’effet Semmelweis est la tendance à rejeter les nouvelles preuves qui contredisent les croyances actuelles. C’est particulièrement fort lorsque les nouvelles idées contredisent complètement nos croyances. Lire l’histoire de Semmelweis ici. Quand nous nous sentons menacés ou anxieux, notre corps réagit comme si nous étions physiquement attaqué, et nous sommes donc moins aptes à changer de point de vue; nos émotions dominent complètement notre raison.

Le backfire effect (persévérance de la croyance) est également un point important dans l’apprentissage. Il arrive souvent qu’après un débat sur une idée, la personne en ressorte encore plus convaincue qu’avant d’avoir raison (plus elle trouve la personne en face d’elle irrationnelle, plus elle est persuadée d’avoir les bonnes informations).

La réactance est la tendance à vouloir faire ce qui est interdit ou ce qu’on nous dit de ne pas faire, pour résister à ce que l’on perçoit comme une atteinte à notre liberté de choisir. On l’utilise en psychologie inversée (on dit à un enfant « ne fait surtout pas ça! » pour en réalité qu’il le fasse de lui-même).

Type 2 : Accepter de manière incorrecte les fausses informations

L’ancrage est la difficulté à se départir de notre première impression, de ce qu’on a appris en premier (on en parle régulièrement ici avec le « on a toujours fait comme ça »). On s’accroche coûte que coûte à nos premières pièces, qu’elles soient vraies ou fausses.

L’effet de mode (bandwagon effect) est notre propension à se joindre à la majorité. Si tout le monde « fait comme ça », alors on fera comme ça. C’est difficile, douloureux de dire à tout un groupe « non merci, j’ai d’autres idées, je ne fais pas comme vous ». Non seulement ça nous isole mais ça ajoute aussi les moqueries des autres.

Availability cascade : la cascade de disponibilité. On croit plus facilement une information ou une manière de faire lorsqu’elle est largement répandue dans notre groupe (ou dans le groupe que l’on veut rejoindre). Si tout le monde autours de nous fait quelque chose, on a tendance à le faire aussi et à mettre nos propres croyances à la poubelle.

Tribal epistemology : quand les nouvelles informations ne sont pas évaluées en fonction des preuves mais selon si elles soutiennent ou non les valeurs et les buts du groupe, et si elles sont ou non acceptées par le(s) leader(s) du groupe (par exemple une même proposition sera évaluée différemment selon si elle concerne notre propre parti ou les opposants). 

Le biais d’autorité : on croit facilement les figures d’autorité, que ce soit vrai ou faux. Selon les personnes, ces figures sont différentes (éducation, rang social, richesse, titres…).

L’effet de vérité illusoire c’est de croire une information parce qu’on l’a beaucoup entendue. Tokyo est la capitale du Japon? Oui je connais ça… La terre est ronde? Oui, c’est ce qu’on m’a toujours dit! Le hamster mord ses barreaux parce que c’est un rongeur? Oui, c’est la vérité (ou pas!!!). A force de voir/entendre/lire une information, on finit par l’accepter, qu’elle soit vraie ou fausse. C’est le plus gros soucis à mon sens des réseaux actuels : beaucoup de fausses informations circulent, peut-être même plus que de vraies infos!

Le biais de confirmation : on ne s’intéresse qu’aux informations qui confirment ce que nous croyons déjà. Lorsqu’on perçoit les informations contradictoires (ce n’est pas toujours le cas), on les ignorera, on ne les croira pas, ou on les modifiera pour les faire rentrer dans notre croyance.

En conclusion, tous ces biais cognitifs nous font accepter les informations (vraies ou fausses) des gens proches et cela concerne tout le monde (ce n’est pas juste « les gens stupides qui ne savent pas réfléchir », c’est un mécanisme de défense de l’humain).

En plus de tout ceci, parlons un peu de l’effet Dunning-Kruger.

Je vous laisse lire l’explication en entier ici, mais en gros lorsqu’on apprend un sujet, on passe d’abord par une phase où on croit tout savoir (alors qu’on en sait très peu) avant de réaliser à quel point on en sait peu… et à partir de là continuer ou non l’apprentissage du sujet. Le soucis : lorsqu’on est dans la phase « Mount Stupid » où on ne sait rien mais qu’on croit tout savoir, on a également un énorme boost de confiance en soi et c’est à ce moment-là qu’on va partager nos informations, essayer d’enseigner ce qu’on sait (pas) aux autres. D’où l’énorme flux d’informations approximatives ou fausses un peu partout. De plus, avec la confiance en nous à ce moment-là, on passe plus facilement comme une figure d’autorité que ceux qui en savent plus que nous!

Ici non plus il ne s’agit pas de « personnes stupides qui ne savent rien », on est tous sur le « mont stupide » pour l’un ou l’autre sujet, mais sans le savoir (on ne le réalise qu’une fois redescendu, lorsqu’on a continué l’apprentissage donc). On ne peut pas « savoir ce qu’on ne sait pas » mais quand on commence à connaitre un sujet en profondeur, on réalise qu’on ne saura jamais tout, qu’on apprendra toute notre vie. Passé le « Mont Stupide », notre confiance en nous redescend en flèche. Si on persévère, elle remontera petit à petit tout en douceur, et avec plus d’humilité.

Enfin, parlons brièvement de la malédiction de la connaissance. Il s’agit de la difficulté à enseigner aux novices quelque chose que l’on maitrise, parce qu’on agit inconsciemment comme si les gens en face avaient les mêmes connaissances que nous. On utilisera du vocabulaire peu ou pas connu des autres, on fera référence à des apprentissages inconnus, etc. Au final, il reste assez peu du concept que l’on veut faire passer.

Alors comment faire pour faire passer les bonnes informations?

On a donc vu qu’on fait confiance aux gens familiers, et non aux étrangers. On accepte les informations de notre clan et pas celles du clan adverse, que ce soit vrai ou faux.

Il est important d’être conscient de tous ces biais, non seulement quand vous passez une information mais aussi quand vous en recevez une!

Faites un effort conscient lorsque vous « apprenez » : d’où viennent ces informations? Comment les avez-vous apprises? Par qui? Pourquoi croyons-nous ces informations?

Écoutez les gens qui ne sont pas d’accord avec vous, écoutez vraiment leurs arguments. Ne partez pas sur « j’ai raison il a tord » mais plutôt « aurais-je tord? Et si non, pourquoi? » Balancez vos croyances et mettez-vous de l’autre côté, jouez l’avocat du diable. On en a déjà discuté aussi mais on ne peut vraiment prendre une décision qu’en connaissant tous les points de vue, suivre aveuglément quelqu’un n’est pas la solution!

C’est OK de ne pas savoir quelque chose, on ne sait pas tout! Ne pas savoir, ou ne pas être sur de quelque chose, c’est le processus normal d’apprentissage.

Les erreurs aussi font partie de l’apprentissage, ne vous accrochez pas à une idée juste parce que vous l’avez partagée!

Pour partager vos idées avec les autres de la bonne manière :

  • soyez sympathiques (que l’idée nouvelle que vous avancez soit plutôt perçue comme venant de quelqu’un en qui on a confiance)
  • amenez les idées nouvelles de manière graduelle et sans confrontation pour que le corps ne réagisse pas
  • posez des questions ouvertes, essayez de comprendre l’autre personne plutôt que d’essayer de « gagner »
  • ne blâmez pas les autres pour leurs croyances fausses, s’ils sont sur le Mont Stupide aidez-les à avancer
  • rendez vos idées familières en les partageant régulièrement

Voilà l’article grosso-modo, nous avons tous toujours des choses à apprendre, moi la première (j’aime partager les articles avec vous, mais j’aime aussi me questionner et me remettre en question). J’espère que tout du moins cela vous aura fait réfléchir, quelque soit le sujet!

Pour lire l’article complet : c’est ici sur Illis ABC.

stardustlee