La désinformation russe se propage dans le monde entier

Avast 10 août 2022

La désinformation sur Internet est mondiale, et c’est là la principale difficulté pour l’endiguer.

Auteurs : Sadia Afroz et Vibhor Sehgal.

Le 24 février, une théorie conspirationniste a émergé selon laquelle la Russie aurait attaqué l’Ukraine pour détruire un programme d’armement clandestin des États-Unis. Lancé par un adepte de QAnon sur Twitter, ce scénario est rapidement devenu l’une des raisons « officielles » justifiant l’invasion de l’Ukraine. L’ambassade russe à Sarajevo a même publié un message sur Facebook à ce sujet. Depuis lors, des réseaux médiatiques  d’autres pays, dont la Chine, l’Inde et les États-Unis , ont commencé à diffuser la théorie de la conspiration des laboratoires biologiques auprès de millions d’internautes. Face au déferlement de désinformation en provenance de Russie, l’UE a interdit les sites web soutenus par le gouvernement russe

Les réseaux sociaux, dont YouTube, Facebook, Instagram et Twitter, ont bloqué les comptes de désinformation russes, interdit les publicités des médias soutenus par l’État russe et commencé à étiqueter les publications liées aux médias russes. Cependant, cette théorie du complot, ainsi que beaucoup d’autres, reste très répandue dans de nombreux médias et réseaux sociaux américains d’extrême droite. 

Cet épisode illustre un problème fondamental de la lutte contre la désinformation sur Internet : la désinformation est mondiale. Car la désinformation russe ne provient pas nécessairement de Russie. Elle commence par une question innocente, prend de l’ampleur au fur et à mesure qu’elle se répand et se transforme en une véritable théorie du complot. Une fois propagée, la désinformation peut même évincer les informations authentiques. 

Si les entreprises occidentales ont bloqué certaines de ces sources de désinformation, elles tardent à en bloquer tous les vecteurs, en particulier ceux provenant des pays occidentaux. Pour endiguer efficacement la désinformation, un effort mondial est indispensable afin de freiner sa propagation.

Peut-on cartographier la propagation de la désinformation ?

Telegram comme banc d’essai

Telegram est un service gratuit de messagerie instantanée disponible sur les ordinateurs de bureau et les appareils mobiles. Actuellement, Telegram compte 550 millions d’utilisateurs actifs mensuels et 55,2 millions d’utilisateurs quotidiens. Telegram permet à tous les utilisateurs de créer des canaux au nombre illimité d’abonnés, ce qui en fait un puissant outil de communication de masse.  Les canaux Telegram sont des flux de contenu où les administrateurs publient des messages pour leurs abonnés. Un canal peut être privé (sur invitation) ou public (libre d’accès). Telegram ne fournit aucun flux algorithmique ni aucune publicité ciblée, ce qui est attrayant pour de nombreux utilisateurs frustrés par les plateformes de réseaux sociaux classiques. Cependant, l’absence de modération du contenu en a fait un terrain propice à la désinformation

Au lendemain de l’invasion de l’Ukraine par la Russie, Telegram est devenu l’une des principales sources d’information concernant cette opération. Le gouvernement ukrainien a adopté Telegram pour communiquer avec sa population. Parallèlement, les partisans de la Russie ont commencé à utiliser la même plateforme pour diffuser leur propagande. Pour nous, scientifiques, Telegram est devenu un microcosme idéal pour étudier la désinformation.

Qui diffuse la désinformation ?

Pour découvrir qui diffuse la désinformation sur l’invasion russe, nous nous sommes concentrés sur le transfert de messages sur Telegram. Les canaux de Telegram peuvent publier les nouveaux messages qu’ils créent et également transférer les messages d’autres canaux Telegram. Le transfert de messages amplifie une information donnée à travers Telegram et peut provoquer une propagation virale. Et les activités répétées de transfert de messages entre les canaux peuvent révéler une connexion.  

Nous soupçonnons également que les utilisateurs repèrent des canaux de même nature en suivant les messages transférés, car Telegram ne leur fournit pas de flux algorithmique automatisé. La relation de transfert des messages peut aider à identifier les activités d’un canal inconnu : si un canal transfère systématiquement des messages provenant de canaux de désinformation connus, il est très probable qu’il s’agisse d’un diffuseur de désinformation.

Pour reconstituer le réseau des diffuseurs de désinformation russes, nous commençons par un canal connu contrôlé par le gouvernement russe sur Telegram : Donbass-Insider. Ensuite, nous explorons automatiquement tous les canaux publics à partir desquels Donbass-Insider a transféré des messages. Nous avons ratissé Telegram à deux reprises, à deux moments différents : au début du mois de mars et à la fin du mois d’avril, afin de comprendre l’évolution des communautés de désinformation au fil du temps.

Figure 1 : cartographie des canaux Telegram. Chaque point représente un canal et une connexion entre deux canaux indique qu’au moins 20 messages ont été transmis de l’un à l’autre. Les canaux sont regroupés en communautés en fonction de la prévalence de la transmission de messages entre eux. Les deux graphiques montrent la relation entre les canaux en mars (en haut) et en avril (en bas). Au fil du temps, les groupes d’extrême droite russes et américains deviennent les principaux diffuseurs de la désinformation russe.

Le réseau de canaux présente une dynamique intéressante : des groupes d’extrême droite américains et français diffusent la désinformation russe, de même que des alliés russes connus en Chine. 

Concentrons-nous sur le groupe rose, composé principalement de groupes d’extrême-droite américains. L’un des canaux les plus actifs de ce groupe s’intitule « TheStormHasArrived** » (le vrai nom est masqué), et compte plus de 137 000 abonnés. Ce canal est associé à la conspiration de QAnon, comme en témoigne l’utilisation de la locution la plus populaire du groupe, « The Storm » (la tempête). Il soutient l’invasion russe en diffusant de fausses informations sur les nazis et les laboratoires biologiques en Ukraine et, au passage, en accusant le président américain Joe Biden de financer ces installations.

Figure 2 : une publication de TheStormHasArrived**

Les théoriciens français du complot utilisent également la désinformation russe pour propager leur programme. Un conspirationniste bien connu, Silvano Trotta, qui diffusait déjà de fausses informations sur le vaccin contre le Covid, a commencé à propager l’idée que la crise humanitaire en Ukraine causée par la guerre serait fictive (Figure 3).


Figure 3 : la désinformation de Silvano Trotta sur le Covid et l’Ukraine

Identifier la désinformation exige un effort manuel considérable, ce qui rend difficile de l’étouffer dès qu’elle commence à se répandre. Une observation peut toutefois aider à résoudre ce problème : les entités qui partagent la désinformation sont étroitement liées. Cela a été avéré dans le cas des domaines qui partagent la désinformation

Pour savoir s’il en va de même sur Telegram, nous examinons de près la cartographie des différents types de canaux. Prenons, par exemple, deux canaux spécifiques : un canal pro-Ukraine réputé (UkraineNOW) et un canal de désinformation notoire (Donbass-Insider). UkraineNOW a transmis des messages d’autres canaux pro-Ukraine et gouvernementaux. Donbass-Insider a transmis des messages d’autres canaux de propagande pro-russes, dont Intelslava (un canal de désinformation connu). Ce phénomène, à savoir la connexion des canaux partageant des informations similaires, est vrai pour la plupart des cas de notre ensemble de données.

Figure 4 : cartographie du transfert de messages d’UkraineNOW (en haut) et de DonbassInsider (en bas). Les cercles représentent les canaux. Un bord partagé entre des canaux A et B signifie que le canal A a transmis un message du canal B. La couleur des canaux correspond aux types de canaux (l’orange représente les canaux pro-Ukraine, le violet les canaux pro-Russie et le vert l’extrême-droite américaine). La taille des cercles est proportionnelle au nombre de canaux qui ont transmis les messages du canal. 

Les sources de désinformation

D’où vient la désinformation sur Telegram ? Pour répondre à cette question, nous examinons les URL partagées sur Telegram. Nous avons collecté 479 452 URL uniques provenant de 5 335 canaux. Environ 10 % de ces URL proviennent de 258 domaines de désinformation uniques identifiés par deux organisations célèbres de vérification des faits, Media Bias/Fact Check (MBFC) et EUvsDisinfo. Ces 258 domaines représentent 22 % des domaines de désinformation recensés par MBFC et EUvsDisinfo. Sur ces 258 domaines, 83,72 % (216) ont été mentionnés par Media Bias/Fact Check comme des domaines d’infox et les 16,27 % restants (42) ont été signalés par EUvsDisinfo pour des articles de désinformation. Ces domaines semblent être hébergés dans le monde entier, ciblant le public de pays comme l’Inde, la Chine, Israël, la Syrie, la France, le Royaume-Uni, les États-Unis et le Canada. Cette liste comprend huit domaines .news qui se concentrent généralement sur les conspirations de l’extrême droite américaine et sont étroitement liés à d’autres domaines .news connus pour leur partage de la désinformation. Nous avons également trouvé de nombreux autres domaines diffusant de la désinformation, même s’ils n’étaient pas étiquetés comme tels par des sources publiques.

Stratégies d’intervention efficace 

Telegram compte des millions d’utilisateurs et de canaux. Le chiffre de 5 000 canaux peut sembler insignifiant pour comprendre les enjeux de cet espace, mais il révèle déjà plusieurs éléments susceptibles d’aider à lutter contre la désinformation à grande échelle :

  1. La plupart des diffuseurs de désinformation sont des récidivistes. Le groupe de personnes qui a partagé de fausses informations sur le coronavirus diffuse maintenant de fausses informations sur l’Ukraine. Les réseaux sociaux ont déjà pris conscience de ce problème et ont commencé à instaurer des mesures pour limiter la portée des récidivistes. Par exemple, Facebook a commencé à restreindre la diffusion des récidivistes et WhatsApp limite la portée d’un message transféré. Toutefois, l’efficacité de ces initiatives reste à prouver

  2. Les diffuseurs de désinformation sont étroitement liés les uns aux autres. À partir d’un seul diffuseur de désinformation connu, nous avons pu remonter tout un réseau d’autres acteurs partageant des informations similaires.

  3. Un lien étroit avec des diffuseurs d’information ou de désinformation est un bon indicateur de la fiabilité d’une entité sur un réseau social (qu’il s’agisse d’utilisateurs individuels, de groupes ou de canaux).

« L’Homo sapiens est une espèce post-vérité dont le pouvoir dépend de la création et de la croyance en des fictions », a déclaré Yuval Harari dans « 21 leçons pour le XXIe siècle ». Les récits alternatifs existaient avant l’invention d’Internet. La désinformation, au fond, n’est qu’une fiction de plus. Les entreprises technologiques sont soumises à une pression énorme pour lutter contre la désinformation, mais le blocage complet de tous les récits alternatifs peut se révéler impossible, voire indésirable, car il pourrait limiter la liberté d’expression des utilisateurs. 

La bataille contre la désinformation est-elle donc déjà perdue ? Absolument pas ! Nous recommandons trois nouvelles orientations aux entreprises technologiques pour s’attaquer à ce problème :

Fournir du contexte

Les recherches montrent que lorsque les utilisateurs sont confrontés à un verdict concernant une information, ils veulent savoir pourquoi. Ils veulent également savoir qui a pris cette décision. Le contexte peut modifier le sens d’un élément d’information. Le fait de savoir où une information a été publiée peut changer le point de vue des gens à son sujet, par exemple entre The Onion (un site d’information satirique populaire) et le New York Times. 

Sur les réseaux sociaux, nous faisons souvent confiance aux intervenants en fonction de leurs références (comme leurs titres professionnels et leurs affiliations à différents groupes). Débusquer les informations concernant les entités en ligne, leurs activités et les personnes avec lesquelles elles sont connectées peut prendre beaucoup de temps à un utilisateur lambda. C’est là que les approches techniques automatisées peuvent accélérer le processus de collecte et de synthèse des données. Toutefois, le véritable défi consiste à présenter les données de manière à convaincre les utilisateurs. 

En collaboration avec Georgia Tech, nous avons développé un moyen de visualiser la connectivité des hyperliens entre les sites web. Notre étude auprès de 139 utilisateurs a démontré que la connectivité des hyperliens aide la majorité des internautes à évaluer la fiabilité d’un site web et à comprendre comment le site peut être impliqué dans la diffusion de fausses informations. 

Ralentir la diffusion

Les plateformes de réseaux sociaux s’efforcent d’endiguer la désinformation virale, alors qu’elles sont conçues pour favoriser la prolifération des contenus qui stimulent l’engagement des utilisateurs. La désinformation augmente souvent l’engagement des utilisateurs et devient donc virale avant que la vérification des faits ne puisse les rattraper. En effet, les fausses informations se propagent davantage sur Twitter que les informations vérifiées.  Les recherches montrent que le fait d’informer les utilisateurs sur un contenu inexact peut contribuer à ralentir sa propagation. Des études montrent aussi que le fait de sensibiliser les utilisateurs aux inexactitudes du contenu qu’ils lisent contribue à en ralentir la propagation. Toutefois, les mises en garde ne peuvent à elles seules que réduire légèrement la propagation de la désinformation ; elles ne l’arrêtent pas pour autant, comme le montre l’étude de Facebook. Sur Twitter, les interventions lourdes, telles que le blocage pur et simple du contenu, ont été plus efficaces pour limiter la diffusion que les interventions modérées (telles que l’affichage d’avertissements).


Obtenir le consensus de la communauté

Le problème le plus urgent en matière de désinformation est celui de son identification rapide. Le marquage manuel ne peut pas suivre le rythme de la désinformation virale. Le catalogage automatisé pourrait être utile, mais il est facile à contourner en modifiant légèrement le contenu. 

Pour faire face à la désinformation, une approche semi-automatique est nécessaire, dans laquelle des systèmes basés sur l’apprentissage automatique pourront détecter les informations potentiellement nuisibles qui seront étiquetées par de nombreux utilisateurs réguliers d’Internet. Des systèmes automatisés pourront ensuite aider à synthétiser les évaluations fournies par la communauté. De nombreuses questions ouvertes doivent être résolues pour mettre en œuvre un tel système, notamment comment convaincre les utilisateurs de participer à un étiquetage précis et comment protéger le processus de marquage contre les acteurs malveillants.


 

--> -->