À l’heure où la désinformation en ligne évolue à toute vitesse, l’Europe doit parer à toujours plus de menaces d’ingérence étrangère et de fausses informations. Debunk.org est un centre d’analyse de la désinformation qui surveille les discours mensongers en ligne, examine la véracité des faits allégués et met au jour les actions coordonnées de manipulation. À la tête de cette organisation, Viktoras Daukšas nous parle du travail de son équipe pour passer ces campagnes au crible. Il nous explique les techniques et les schémas à l’œuvre dans les menées modernes de désinformation, les difficultés qui sont les leurs pour détecter la manipulation sur plusieurs plateformes à la fois, ainsi que les mesures que les institutions, la société civile et les citoyens peuvent prendre pour protéger le débat démocratique en Europe.

 

Sur la base de vos analyses récentes (le déferlement de discours pro-Kremlin sur X par la chaîne d’information Telegram Belarusian Silovik, des escroqueries fondées sur l’hypertrucage et une campagne visant à discréditer Ursula von der Leyen), quels principaux schémas de désinformation observez-vous actuellement en Europe? Quel est le mécanisme derrière ces trucages numériques? Quelles techniques s’avèrent aujourd’hui les plus efficaces, et pourquoi?

Selon les observations de l’équipe de Debunk.org, un schéma se détache du lot: le blanchiment de contenus simultanément sur plusieurs plateformes, ce qui représente aussi une nouvelle façon de contourner les sanctions prises par l’Union européenne à l’encontre des médias acquis au Kremlin. Les contenus provenant de sites internet sanctionnés sont réécrits à l’aide de l’IA et partagés sur des médias de désinformation nouvellement créés, comme le réseau Pravda, ou sur les réseaux sociaux. Les narratifs émanent souvent d’espaces fermés ou semi-fermés tels que Telegram, où des acteurs liés à l’État ou agissant par procuration opèrent sans réel contrôle, et sont ensuite reformatés pour des plateformes comme X. Dans le cadre de notre enquête sur les contenus liés à Belarusian Silovik, nous avons découvert qu’un petit nombre de comptes fictifs ou à l’identité usurpée amplifient inlassablement le même matériel source, en utilisant l’IA pour le localiser et en l’adaptant à différents publics pour en accroître la portée.

Un deuxième schéma récurrent repose sur le discrédit politique déclenché par un événement, ce qui consiste à instrumentaliser délibérément les procédures démocratiques officielles pour lancer des campagnes de désinformation. Dans le cas du vote de censure visant la présidente de la Commission européenne Ursula von der Leyen, le vote lui-même est devenu le vecteur d’une campagne de discrédit coordonnée. Même s’il était d’emblée manifeste que la motion ne réunirait pas suffisamment de voix pour faire démissionner la présidente, la manœuvre a néanmoins été orchestrée dans le but d’amplifier les discours préexistants de corruption et d’illégitimité.

Enfin, nous voyons de plus en plus que la désinformation confine à la fraude, en tirant notamment profit de la publicité payante et d’escroqueries fondées sur l’hypertrucage. Ici, l’objectif ne se limite pas à une manipulation politique, mais vise aussi un préjudice financier direct, souvent obtenu en se faisant passer pour des médias, des personnalités publiques ou des institutions de confiance. Ces campagnes abusent des systèmes publicitaires des plateformes et, pour les utilisateurs, il est difficile de les distinguer des contenus légitimes.

 

Pouvez-vous nous détailler vos procédés pour rétablir la vérité? De manière générale, quels signaux ou éléments de preuve vous permettent de détecter les contenus coordonnés ou manipulés?

Notre processus de rétablissement de la vérité («debunking») combine analyse du discours, signaux comportementaux et vérification technique, souvent en collaboration avec des organisations partenaires.

Nous commençons par repérer la source d’une allégation en amont et par retracer la manière dont elle se propage d’une plateforme à l’autre. Parmi les signaux de coordination, on peut citer une fréquence de publication inhabituellement élevée, une amplification synchronisée autour d’événements majeurs, des renvois répétés de liens vers la même origine, ou encore des comptes qui usurpent l’identité de personnes ou d’organisations bien réelles. Au niveau du contenu, nous recherchons les formulations récurrentes et les narratifs parfaitement calibrés.

Nous en évaluons l’ampleur et la vélocité. Lorsque d’importants volumes de contenu apparaissent dans des délais courts, cela peut suggérer une automatisation ou un comportement coordonné. Bien que les outils et les techniques varient au cas par cas, la clé consiste à recouper plusieurs indicateurs de manipulation plutôt que de se fier à un signal unique.

Aujourd’hui, l’analyse des activités de manipulation de l’information et d’ingérence menées depuis l’étranger se fait rarement seul dans son coin. L’efficacité des réponses dépend de plus en plus de réseaux d’échange d’informations tels que le centre FIMI-ISAC, qui mettent en relation les chercheurs, les journalistes, la société civile et les institutions publiques afin de détecter et de contextualiser rapidement les menaces.

Votre analyse de la désinformation visant Ursula von der Leyen met en évidence des tendances plus lourdes de discrédit politique. En quoi cette affaire est-elle révélatrice de la manière dont les institutions ou les figures politiques de l’Union sont aujourd’hui présentées en ligne?

Cela reflète une stratégie plus large de manipulation de l’information et d’ingérence menées depuis l’étranger: il s’agit d’éroder la confiance et d’affaiblir l’autorité institutionnelle de l’Union afin de disqualifier plus facilement l’information officielle, les médias, la vérification des faits ou les réponses politiques. Par la répétition de narratifs ou d’accusations préconstruits par les médias, les chaînes et les influenceurs pro-Kremlin, on cherche à créer des campagnes de grande ampleur dans le but de manipuler l’opinion publique.

D’après vos recherches, quelles compétences doivent développer de toute urgence les citoyens pour se protéger de la désinformation et des hypertrucages? Quelles sont, selon vous, les principales failles dans l’éducation du public au numérique et aux médias?

Les compétences les plus urgentes à acquérir aujourd’hui concernent moins la mémorisation des faits que la reconnaissance des techniques de manipulation.

Les citoyens doivent se doter de solides réflexes en matière de vérification des sources, comme la lecture latérale, qui consiste à quitter la page internet que nous sommes en train de lire pour vérifier ce que disent d’autres sources crédibles, et une vérification élémentaire de l’auteur d’une affirmation. Il faut également sensibiliser davantage aux médias synthétiques: il convient de comprendre qu’un contenu vidéo ou audio convaincant peut être fabriqué de toutes pièces et que le réalisme visuel n’est plus une preuve d’authenticité.

Pour contribuer à combler ces failles, Debunk.org a mis au point InfoShield, un cours en ligne gratuit de 45 minutes qui a déjà été suivi par plus de 5 000 citoyens. Le cours se concentre sur les compétences pratiques indispensables au quotidien pour reconnaître la manipulation, le cadrage émotionnel et les contenus trompeurs dans les environnements numériques.

Au niveau professionnel, nous avons aussi de plus en plus besoin de spécialistes formés, capables de détecter systématiquement les activités de manipulation de l’information et d’ingérence menées depuis l’étranger et d’y réagir. À cette fin, nous proposons FIMI101, un cours d’apprentissage en ligne destiné aux professionnels et conçu pour certifier les analystes exerçant dans ce domaine. La participation à ces cours professionnels contribue directement aux activités de recherche, de suivi et d’intérêt général que mène en permanence Debunk.org.

Viktoras Daukšas est depuis huit ans à la tête de l’ONG Debunk.org, un groupe de réflexion indépendant en matière de technologies. Debunk.org analyse les activités de manipulation de l’information et d’ingérence menées depuis l’étranger ainsi que les comportements coordonnés non authentiques. Avec ses partenaires, l’ONG mène des recherches sur la désinformation dans 22 pays, en combinant ses connaissances spécialisées avec des technologies fondées sur l’IA. Debunk.org propose également des campagnes d’éducation aux médias pour apprendre aux citoyens à repérer les trucages en ligne et à se protéger de la désinformation.