Les biais cognitifs. Personne n’y échappe. Car au-delà des manipulations extérieures, nous nous faisons quotidiennement piéger par notre propre cerveau. Et ces mécanismes prennent forme dans un environnement social, politique et médiatique qui influence profondément notre manière de percevoir le monde. Comment y résister ?

Nous vivons une époque de bascule. Gaza brûle sous les bombes, la guerre en Ukraine s’étire, Trump redessine l’ordre mondial à coups de frappes militaires, piétinant chaque jour un peu plus le droit international. L’extrême droite progresse partout en Europe, et les réseaux sociaux transforment chaque événement en champ de bataille narratif. Dans ce chaos informationnel, tout le monde cherche ses repères. Et c’est précisément dans ces moments-là que notre cerveau nous joue les tours les plus sournois.

Ces biais touchent celles et ceux qui lisent l’information, mais aussi celles et ceux qui la produisent : journalistes, chercheur·ses, militant·es, citoyen·nes engagé·es. Nous y sommes toutes et tous sujets. Et lorsque l’on est profondément investi dans une cause ou une analyse du monde, le risque de surinterpréter certains faits peut effectivement augmenter. Le biais de confirmation et certaines stratégies rhétoriques, que nous avons explorés ailleurs, ne sont que quelques exemples des nombreux mécanismes qui influencent nos jugements.

Notre cerveau, ce faussaire bienveillant

Notre cerveau est une machine extraordinaire. En une fraction de seconde, il traite des milliers d’informations, anticipe, classe, hiérarchise. Mais cette efficacité n’est pas sans conséquences. Pour aller vite, il prend des raccourcis, simplifie et généralise. Et parfois, il fait fausse route sans que nous nous en rendions compte. Ces raccourcis mentaux sont appelés biais cognitifs. Ils font partie du fonctionnement ordinaire du cerveau.

Depuis les années 1970, les psychologues Daniel Kahneman et Amos Tversky ont montré à quel point ils influencent nos décisions et nos jugements. Et la première étape pour déjouer ces mécanismes, est de les comprendre.

N.B. : Si la théorie des biais cognitifs de Kahneman et Tversky est aujourd’hui largement reprise en psychologie, elle fait elle-même l’objet de débats dans certaines approches philosophiques et cognitives, qui discutent notamment la manière dont ces biais sont définis, mesurés et interprétés. Ce qui ne remet pas en cause l’existence des mécanismes décrits ici mais invite à les aborder avec la même humilité et prudence critique que le reste.

Le biais de confirmation

Le plus connu d’entre eux est sans doute le biais de confirmation : cette tendance qu’on a toutes et tous à rechercher, interpréter et retenir en priorité les informations qui confirment ce qu’on croit déjà. Ce n’est généralement pas intentionnel, c’est un réflexe cognitif que notre cerveau emprunte sans qu’on s’en rende compte. On lit un article et on retient surtout ce qui valide notre point de vue. On observe une situation et on y voit une preuve de ce qu’on pensait déjà. Face à une information ambiguë, on a tendance à l’interpréter plus facilement dans le sens de ses convictions. Ce mécanisme ne concerne pas seulement la vie quotidienne. Il constitue aussi un défi majeur pour la science.

Le philosophe Karl Popper avait déjà identifié ce piège dans la démarche scientifique. Selon lui, une théorie solide ne se contente pas d’accumuler des confirmations : elle doit accepter de s’exposer à la réfutation. C’est ce qui distingue les théories scientifiques de la pseudo-science. Autrement dit, une pensée rigoureuse consiste aussi à chercher ce qui pourrait nous donner tort. Sans cette confrontation au doute, nous risquons simplement de renforcer des certitudes qui peuvent être erronées.

Le biais de disponibilité

Le biais de disponibilité nous pousse à surestimer la probabilité d’un événement simplement parce qu’il nous vient facilement à l’esprit. Une attaque terroriste relayée en boucle sur les chaînes d’information nous semble plus fréquente qu’elle ne l’est réellement. Une noyade médiatisée peut soudain nous donner l’impression que la mer est devenue particulièrement dangereuse. Notre cerveau confond alors la visibilité d’un événement avec sa fréquence réelle.

Dans un environnement médiatique saturé, où certains faits sont couverts en continu tandis que d’autres restent invisibles, ce biais peut se renforcer. Par exemple, lorsque certaines morts occupent une place majeure dans l’espace politico-médiatique, alors que d’autres, s’évanouissent dans le silence.

L’effet de halo

L’effet de halo intervient lorsque la perception globale que nous avons d’une personne ou d’une institution influence notre jugement sur ses propos. Si une figure publique, un média ou un mouvement nous inspire confiance, nous aurons tendance à accorder plus facilement du crédit à ce qu’il affirme.

À l’inverse, une source que nous rejetons aura beaucoup plus de mal à nous convaincre, même avec des arguments solides. On ne juge plus seulement l’argument, on juge aussi celui qui parle. Dans un climat politique polarisé, ce mécanisme peut transformer le débat d’idées en affrontement identitaire.

Je m'abonne à Mr Mondialisation
 

Le biais de négativité

Notre cerveau accorde également davantage de poids aux informations négatives qu’aux positives. Une mauvaise nouvelle attire davantage notre attention et reste plus longtemps en mémoire. On pourrait croire qu’il s’agit de pessimisme mais c’est en réalité, un héritage évolutif. Parce que pour nos ancêtres, repérer un danger était plus vital que contempler un paysage agréable.

Mais dans un flux d’information dominé par les crises et les catastrophes, ce biais peut entretenir une vision du monde excessivement anxiogène. Les algorithmes des réseaux sociaux en sont particulièrement friands.

Le biais de représentativité

Le biais de représentativité consiste à juger la probabilité d’une situation en fonction de sa ressemblance avec un modèle mental préexistant. C’est ce mécanisme qui alimente souvent les stéréotypes. Un visage, un nom, une appartenance supposée… et le cerveau croit déjà savoir à quoi s’attendre.

Le biais du faux équilibre

Par souci d’impartialité – vertu réelle, mais mal appliquée – on peut être tenté de présenter deux positions opposées comme équivalentes, même lorsque les faits ou la recherche scientifique penchent très largement d’un côté. Il s’agit du biais d’équilibre. Donner la parole à un climato-sceptique face à un climatologue au nom de « l’équilibre », c’est créer une symétrie artificielle qui fausse la réalité.

Et comme nous l’expliquions dans notre article L’extrême gauche et l’extrême droite ne sont pas comparables, mettre sur le même plan une idéologie fondée sur la haine et l’exclusion, et une autre fondée sur la justice et l’égalité, n’est pas de la neutralité – c’est une forme de complaisance habillée en objectivité. L’impartialité ne signifie pas l’équidistance entre le vrai et le faux, entre le fait et l’opinion, entre l’humain et l’inhumain.

Des biais cognitifs… mais aussi sociaux

Pierre Bourdieu rappelait également que nous ne lisons jamais l’information depuis une position impartiale. Notre milieu social, notre trajectoire, nos expériences façonnent profondément ce que nous percevons et ce que nous ignorons. Nos biais ne sont pas que cognitifs, ils sont aussi sociaux, culturels, parfois de classe. Bourdieu appelait habitus cet ensemble de dispositions incorporées au fil de notre histoire sociale. Des manières de percevoir, de penser et d’agir si profondément intériorisées qu’elles nous semblent naturelles et évidentes. Cette dimension sociale est essentielle car elle rappelle que nos jugements ne sont jamais produits par un cerveau isolé du monde.

Le neuroscientifique Albert Moukheiber met d’ailleurs en garde contre ce qu’il appelle parfois la « neuromanie » : la tentation d’expliquer des phénomènes sociaux complexes – opinions politiques, peurs collectives, comportements médiatiques – uniquement par le fonctionnement du cerveau. Or notre cerveau est le produit d’une histoire évolutive, mais il se construit aussi dans un environnement social, culturel et politique avec lequel il interagit en permanence.

Les biais cognitifs existent bien, mais ils ne suffisent pas à expliquer à eux seuls nos jugements et nos décisions. Comprendre nos comportements suppose aussi de mobiliser les sciences sociales (sociologie, histoire, science politique) qui éclairent les contextes dans lesquels ces mécanismes prennent forme. Les neurosciences peuvent aider à comprendre certains processus cognitifs, à condition de ne pas tomber dans un déterminisme simplificateur.

Une période qui exige une vigilance redoublée

Les algorithmes des réseaux sociaux exploitent nos biais cognitifs et les amplifient. La logique est simple : plus vous passez de temps sur la plateforme, plus elle génère de revenus publicitaires. Or ce qui retient notre attention, c’est ce qui nous stimule émotionnellement : l’indignation, la peur, la confirmation de nos croyances.

Les algorithmes ont donc appris à nous servir exactement ce que nous voulons entendre, enfermant chacun dans une bulle où ne circulent que les informations qui confortent ses certitudes. Le résultat est vertigineux : deux personnes aux convictions opposées peuvent vivre dans des réalités informationnelles radicalement différentes, sans jamais se croiser. La désinformation prospère précisément dans cet environnement. Quand une fake news bien construite confirme ce qu’on voulait croire, elle se propage bien plus vite que le démenti qui la suit.

Une étude publiée en 2018 dans la revue Science a montré que, non seulement les fausses informations se diffusent plus vite et plus largement que vraies, mais aussi que ce n’est pas tant lié aux algorithmes qu’aux humains eux-mêmes, parce qu’ils sont plus susceptibles de partager des contenus qui suscitent la peur, la surprise et le dégoût, plutôt que l’enthousiasme, la tristesse, la joie et la confiance. Selon les chercheurs, c’est également dû au fait que les fausses informations sont « plus originales que les vraies », et que les internautes sont plus enclins à partager des informations « inédites ».

Dans ce contexte, les mouvements autoritaires et populistes ont compris comment instrumentaliser ces mécanismes à grande échelle. On ne cherche plus à convaincre par les faits, on cherche à saturer l’espace informationnel, à semer le doute, à rendre toute vérité relative. Quand tout se vaut, quand chaque affirmation peut être qualifiée de fake news par ceux qu’elle dérange, c’est la notion même de réalité partagée qui s’effondre. Et c’est dans ce vide que prospèrent les démagogues.

Une étude publiée cette année dans la revue Nature montre par ailleurs que les algorithmes de X orientent les utilisateurs vers des idées conservatrices.

Se protéger : quelques réflexes essentiels

Face à ces mécanismes, personne n’est condamné à être un réceptacle passif. Quelques réflexes simples peuvent faire une vraie différence :

  • Se méfier de ce qui nous conforte trop facilement. Quand une information nous semble parfaitement confirmer ce qu’on pensait, c’est précisément le moment de ralentir et de vérifier. Le cerveau adore avoir raison – c’est une raison de plus pour douter.
  • Chercher la source originale. Un titre accrocheur sur les réseaux sociaux ne résume jamais fidèlement un article, qui lui-même ne résume pas toujours fidèlement une étude. Remonter à la source prend du temps, mais c’est souvent là que se nichent les nuances qui changent tout.
  • S’exposer volontairement à des points de vue différents des siens. Non pas pour y adhérer, mais pour comprendre comment d’autres personnes, de bonne foi, peuvent analyser le même événement différemment. C’est inconfortable et c’est exactement pour ça que c’est utile.
  • Avant de partager une information, se demander : est-ce que je la partage parce qu’elle est vérifiée, ou parce qu’elle vient d’une source que j’apprécie et que son message me plaît ?

Le doute comme boussole

Enfin, accepter l’incertitude et la nuance lorsque les faits l’exigent. Dans un monde complexe, beaucoup de situations n’ont pas de réponse simple. Cultiver une certaine tolérance à l’ambiguïté est une compétence intellectuelle précieuse. Mais cela ne signifie pas renoncer à nommer clairement les réalités lorsque les faits sont établis. L’esprit critique n’est pas un prétexte au relativisme, il est un outil pour mieux distinguer le vrai du faux.

La meilleure protection contre les biais cognitifs reste le doute. Pas le cynisme – le cynisme est une autre forme de paresse intellectuelle, qui dispense de chercher. Mais cette petite voix qui demande : « Et si je me trompais ? Et si cette information que je partage avec enthousiasme n’était qu’une confirmation de ce que je voulais déjà croire ? »

En cette période trouble, où l’information est devenue un champ de bataille, où la vérité est contestée jusque dans ses fondements, cultiver ce doute n’est pas un aveu de faiblesse. C’est un acte de résistance.

Elena Meilune


Photo de couverture de Afif Ramdhasuma sur Unsplash

- Cet article gratuit, indépendant et sans IA existe grâce aux abonnés -
Donation