Alors que le génocide à Gaza se poursuit et que la guerre en Ukraine redessine les rapports de force en Europe, la désinformation est devenue un pilier central de la légitimation des projets colonialistes. Qu’ont en commun Israël et la Russie dans leur manière de manipuler l’opinion publique et de remodeler le réel à leur avantage ? Plongée dans les mécanismes de propagande qui orientent aujourd’hui nos imaginaires politiques.

Depuis une dizaine d’années, les opérations d’influence numérique ont muté en un véritable champ de bataille géopolitique, où États, entreprises privées et mercenaires de l’information se disputent l’attention publique. Des usines à trolls russes aux sociétés israéliennes spécialisées dans la manipulation politique, un écosystème industrialisé, opaque et transnational s’est imposé. Ses effets sont visibles partout : fragmentation du débat, polarisation extrême, brouillage systématique de la réalité.

Réécrire l’histoire pour dominer

En Russie comme en Israël, la réécriture de l’histoire sert une finalité impérialiste : déshumaniser les victimes, délégitimer toute résistance et assimiler les opposants à des figures menaçantes afin de justifier l’usage massif de la violence d’État.

En Russie, cela passe par la criminalisation de tout discours critique sur les crimes de guerre, la réhabilitation officielle d’un récit nationaliste glorifié, et l’usage systématique de l’accusation de « nazisme » contre l’Ukraine pour légitimer l’invasion. En Israël, cela se traduit par la négation de massacres de civils, la production de récits sécuritaires présentant toute résistance palestinienne comme un « danger existentiel » et l’effacement historique de la Nakba dans les discours institutionnels.

Du côté de la Russie, toute critique de la guerre d’agression est dénoncée comme un soutien aux « nazis ukrainiens », un levier rhétorique destiné à étouffer la dissidence et à neutraliser toute opposition démocratique. Pour ce qui est d’Israël, les dénonciations de l’occupation et des massacres sont assimilés à de l’antisémitisme, dans le but de rendre politiquement suspecte toute dénonciation de la violence coloniale.

Si les contextes historiques ne sont pas les mêmes, la fonction politique de ces accusations est très similaire : elles visent à neutraliser moralement les violences, à verrouiller l’espace du dicible et à empêcher toute remise en cause des rapports de domination.

De nombreuses enquêtes indépendantes mettent en lumière une mécanique récurrente : bots, faux comptes, influenceurs rémunérés et firmes de désinformation travaillent main dans la main pour amplifier des narratifs politiques, étouffer les voix dissidentes et saturer l’espace d’expression public. Ces dispositifs exploitent les failles structurelles des plateformes tout en alimentant un marché global de la manipulation, devenu une industrie lucrative.

Comprendre ces mécanismes est indispensable pour saisir comment s’installent aujourd’hui les nouvelles formes de propagande d’État et de domination politique.

Russie : la machine d’État la plus documentée

L’Internet Research Agency (IRA), fondée en 2013 à Saint-Pétersbourg et dirigée par l’oligarque Evgueni Prigojine (opérant dans une proximité fonctionnelle avec le Kremlin) est l’un des appareils de manipulation numérique les mieux documentés à travers le monde.

Ses activités – révélées par des médias et confirmées par l’acte d’inculpation Mueller (2018) concernant l’ingérence russe visant à aider Donald Trump lors de l’élection américaine de 2016 – montrent une structure industrielle mobilisant plusieurs centaines d’employé·es, faux médias, réseaux sociaux et infiltration de débats étrangers. L’IRA incarne la professionnalisation des anciennes « mesures actives » soviétiques à l’ère des plateformes sociales.

Le bâtiment de l’Agence de recherche Internet, surnommé l’usine à trolls russe, itué au 55 rue Savushkina à Saint-Pétersbourg, en Russie. Avril 2018. Wikimedia.

Les travaux du DFRLab (institut de recherche sur la désinformation et les violations des droits de l’homme) démontrent que l’IRA combinait faux comptes, ciblage politique, trolls humains organisés en équipes, amplification automatique et fabrication de récits identitaires ou conspirationnistes.

L’objectif documenté n’était pas tant de convaincre que de désorienter : créer du doute, polariser, affaiblir la confiance dans les institutions, et soutenir les intérêts géopolitiques russesde l’annexion de la Crimée à l’invasion de l’Ukraine. Le DFRLab a notamment documenté la production systématique de faux articles, de vidéos manipulées et de milliers de posts visant à justifier l’agression russe, dénigrer l’Ukraine ou saper le soutien occidental.

Je m'abonne à Mr Mondialisation
 

Malgré la dissolution de l’IRA en 2023, d’autres structures poursuivent aujourd’hui le déploiement massif de cette machine de manipulation. Les méthodes restent identiques : multiplication de faux médias, exploitation des fractures sociales, diffusion de narratifs pro-Kremlin et saturation de l’espace public pour entraver la compréhension des faits.

Secondary Infektion : une machine de désinformation tentaculaire

L’opération Secondary Infektion désigne une opération de désinformation russe active de 2014 à 2020, attribuée à un réseau russe encore non identifié, qui constitue l’une des campagnes de désinformation les plus vastes jamais documentées. Elle a permis de diffuser des milliers de faux contenus – articles inventés, documents falsifiés, fuites manipulées – dans au moins 7 langues et sur plus de 300 plateformes, des réseaux sociaux majeurs aux blogs marginaux. Sa particularité : l’usage systématique de comptes jetables, créés pour une seule publication puis abandonnés, rendant son attribution particulièrement complexe.

Les narratifs récurrents visaient avant tout l’Ukraine, mais aussi l’Union européenne, l’OTAN et les États-Unis, tout en attaquant journalistes, opposant·es et critiques du Kremlin. Les chercheur·euses ont également identifié des contenus racistes, notamment islamophobes, destinés à attiser les tensions internes en Europe. L’objectif stratégique était constant : désorganiser les sociétés démocratiques, fracturer les solidarités internationales et miner la confiance dans les institutions – au service des intérêts géopolitiques du Kremlin.

Israël : un écosystème privé extrêmement actif

Contrairement à la Russie, Israël ne dispose pas d’une usine étatique de désinformation comparable à l’IRA mais les enquêtes publiées depuis plusieurs années ont révélé un écosystème privé très structuré, composé d’entreprises de cyber-influence, de consultants politiques et d’anciens officiers issus des unités de renseignement. Ces acteurs, opérant pour des clients étrangers comme pour des sphères proches du pouvoir israélien, constituent une véritable industrie de la manipulation numérique.

L’enquête internationale Story Killers (2023) expose Team Jorge – société spécialisée dans la désinformation sur les réseaux sociaux – dirigée par l’ex-agent Tal Hanan, qui proposait : des milliers de faux comptes automatisés (AIMS) comme outil de manipulation massif, des interventions clandestines dans plus de 30 élections, des campagnes de désinformation et de harcèlement ciblé contre opposants et journalistes. Ces opérations démontrent l’existence d’un savoir-faire israélien exporté, capable d’influencer des processus démocratiques étrangers à grande échelle.

Depuis 2020, plusieurs investigations documentent des campagnes coordonnées opérant depuis Israël pour défendre l’armée, attaquer ONG et journalistes, et saturer l’espace critique : réseaux de faux comptes et campagnes de harcèlement visant journalistes palestiniens et israéliens critiques, groupes structurés diffusant des narratifs pro-armée pendant les opérations militaires, opérations ciblées contre des ONG telles qu’Amnesty et HRW après leurs rapports sur l’apartheid.

Ces réseaux ne relèvent pas officiellement de l’État mais agissent de manière coordonnée avec les intérêts politiques du gouvernement, notamment lors des crises militaires. Des enquêtes ont mis en lumière une frontière poreuse entre secteur privé, anciens militaires et pouvoir politique. Une porosité qui facilite l’externalisation de la guerre informationnelle à des acteurs privés, créant une zone d’impunité opérationnelle.

Un marché global de la manipulation

La manipulation de l’information n’est plus l’apanage des États : elle constitue désormais un marché globalisé, alimenté par des sociétés privées opérant en Europe, aux États-Unis, en Afrique ou en Inde. De nombreuses enquêtes ont révélé l’existence d’un véritable secteur international de mercenaires numériques, proposant faux comptes, ingérence électorale, sabotage d’opposants et campagnes d’astroturfing à des gouvernements, partis politiques ou entreprises.

De nombreuses investigations montrent que ces dispositifs servent très fréquemment – et de manière structurelle – les forces politiques d’extrême-droite, qui sont les principales bénéficiaires des narratifs polarisants qui s’accordent parfaitement avec les logiques de viralité algorithmique. Ces opérations contribuent ainsi à amplifier massivement leur visibilité, à désorganiser les contre-pouvoirs et à consolider leur implantation politique.

 

Cette prolifération illustre la transformation de la guerre de l’information en industrie capitaliste lucrative, où les services de manipulation – autrefois clandestins – s’achètent désormais comme n’importe quelle prestation. Les entreprises qui contrôlent les plateformes ont construit un modèle économique fondé sur la maximisation du temps d’écran, ce qui rend structurellement la polarisation rentable. La financiarisation de l’attention et l’absence de régulation internationale permettent à ces acteurs privés de fonctionner à grande échelle, avec une opacité quasi totale.

Dans cet environnement dérégulé, la désinformation n’est plus une anomalie : elle devient une conséquence logique du marché, structurée par des incitations économiques qui valorisent le choc, la polarisation et la production industrielle du mensonge.

Les outils : bots, faux comptes… et humains rémunérés

Les bots automatisés

Les campagnes de manipulation numérique reposent en grande partie sur des bots, programmes capables de publier, liker ou relayer du contenu à grande vitesse. Leur fonction n’est pas d’argumenter mais d’amplifier artificiellement un narratif : gonfler un hashtag, imposer un « spam narratif », ou simuler un soutien populaire (astroturfing).

Ces bots se repèrent souvent par des signatures mécaniques : rythme de publication identique, absence d’interactions authentiques, répétition des mêmes messages, profils incomplets, photos génériques ou dupliquées. Leur puissance réside dans la quantité : quelques milliers de comptes automatisés suffisent à donner une illusion de consensus.

Des trolls rémunérés

Dans de nombreux pays, y compris la Russie, des travailleurs de clic sont engagés pour incarner la propagande. Structurés en équipes, avec des rotations et des quotas, ils diffusent, répliquent, incitent, assaillent et maintiennent des discussions factices. Ils ont un rôle primordial : fournir à la machine une texture humaine, plus plausible que des robots.

Ces trolls, qui sont souvent dans une situation précaire, étudiants ou employés mal rémunérés, ou encore personnes partageant des idéologies similaires, ont tendance à suivre les scénarios narratifs proposés par leurs superviseurs. Ce modèle est bien documenté par les enquêtes sur l’Internet Research Agency, par l’investigation Story Killers, et par les analyses du DFRLab.

Influenceurs et travailleurs du clic externalisés

Un segment croissant du marché de la manipulation repose sur des micro-tâches achetées sur des plateformes de travail à la demande comme Fiverr, Upwork ou Clickworker : likes, commentaires, avis, participation artificielle à un débat. Plusieurs enquêtes ont montré que ces tâches, rémunérées quelques centimes, sont massivement utilisées pour gonfler artificiellement la visibilité de narratifs politiques. Cette externalisation discrète permet d’acheter de la « participation politique » comme un service, brouillant encore davantage la frontière entre interactions humaines authentiques et opérations orchestrées.

Quand des individus ordinaires deviennent malgré eux vecteurs de propagande

Une portion de l’efficacité de ces opérations découle du fait que des personnes lambda finissent par embrasser les récits élaborés par les dispositifs de propagande, dans un contexte de défiance profonde dans lequel elles se déploient. Dans de nombreux pays, les gouvernements ont accumulé mensonges, dénis, déclarations contradictoires et gestion opaque des crises – autant de pratiques qui ont sapé la légitimité des institutions aux yeux d’une grande partie de la population.

Cette crise de confiance a donné naissance à un terrain d’autant plus vulnérable aux récits simplistes, manichéens ou conspirationnistes. Quand les institutions mentent, d’autres voix – même fallacieuses – deviennent plus crédibles.

Sur ce terrain fragile et incertain, les mécanismes psychologiques jouent un rôle indéniable : biais de confirmation, besoin d’appartenance à un groupe, épuisement cognitif face au flux d’informations contradictoires. Certaines personnes finissent par adopter pleinement les narratifs diffusés par les campagnes d’influence, jusqu’à devenir des relais zélés de récits mensongers qu’ils ne distinguent plus de la réalité.

Ce phénomène se renforce dans les contextes de précarité, où le ressentiment social devient un vecteur d’adhésion aux récits simplistes proposés par les propagandistes. Ces derniers exploitent cette brèche, s’autoproclamant comme des « contre-pouvoirs », ce qui renforce l’identification de celles et ceux qui rejettent légitimement les pouvoirs en place, et consolide la persuasion.

Les narratifs standardisés produits par ces opérations – relativisation de crimes de guerre, mise en accusation systématique des médias indépendants, inversion accusatoire, recyclage de tropes complotistes – sont répétés quasi à l’identique par ces relais humains.

Une fois convaincus, ces individus multiplient eux-mêmes la diffusion massive, le harcèlement politique et la reproduction spontanée des méthodes de trolls rémunérés. C’est par ce phénomène d’auto-propagation que la désinformation finit par dépasser largement le périmètre des opérations initiales et transforme durablement l’espace public en champ fragmenté.

L’impact : un espace d’expression public rongé de l’intérieur

Le principal objectif des opérations de manipulation n’est pas de convaincre mais de désorienter. Le but est de saturer l’espace public de récits contradictoires, de semer le doute et d’épuiser l’attention. Une confusion structurée qui entraîne une dépolitisation diffuse : les luttes sociales se fragmentent, les solidarités s’érodent et les colères se dispersent au lieu de s’organiser.

Dans ce brouillard, les discours racistes, misogynes, islamophobes et colonialistes prolifèrent allègrement, d’autant plus que les algorithmes privilégient les contenus polarisants et émotionnels, renforçant la visibilité de ces narratifs.

Cette dynamique profite avant tout aux pouvoirs autoritaires, qui exploitent la confusion pour délégitimer toute opposition. Leur but est d’affaiblir les contre-pouvoirs et justifier un durcissement sécuritaire. Les médias indépendants, déjà fragiles économiquement, se retrouvent marginalisés dans un environnement où la vérification factuelle n’a presque plus de poids face au flux manipulé qui crée un espace où la vérité n’est plus qu’optionnelle.

Comment résister et recréer un espace numérique démocratique ?

La résistance à ces manipulations de masse passe avant tout par un soutien aux médias indépendants qui enquêtent sur les opérations de désinformation et produisent des preuves vérifiables. Dans un environnement saturé de propagande, leur travail constitue l’un des rares contre-pouvoirs capables de dévoiler les responsabilités politiques et économiques qui nourrissent ces campagnes.

La création d’espaces numériques auto-organisés, solidaires, féministes, antiracistes et antifascistes permet aussi de réinventer des formes d’expression collective échappant à la logique marchande. Et parce qu’aucune transformation durable n’est possible sans autonomie critique, une éducation populaire aux techniques de manipulation – accessible et émancipatrice – devient un outil central d’autodéfense.

Car la propagande numérique n’est pas une fatalité : elle prospère sur des choix politiques, sur l’opacité des plateformes et la marchandisation de l’attention. Reconstruire un Internet réellement démocratique, c’est lutter pour un espace public fondé sur la justice, la vérité et la dignité humaine – et refuser de laisser la manipulation définir notre horizon collectif.

Elena Meilune


Photo de couverture : Andrea Piacquadio. Pexels

- Cet article gratuit, indépendant et sans IA existe grâce aux abonnés -
Donation