Fake News

Sections de cet article:

En lien avec mon intérêt pour l'OSINT et la Cybersécurité, mais aussi parce que je suis attaché à notre modèle démocratique, je me suis intéressé aux campagne de désinformation sur internet, notamment celles orchestrées par des puissances étrangères. La désinformation et les fake news, ce n'est pas quelque chose de nouveau, c'est malheureusement monnaie courante dans notre débat démocratique. Mais quand un état utilise sa puissance financière, ses moyens techniques et tous ses relais (dans le pays visé et à l'international) pour fausser le débat public, manipuler l'opinion sur nos espaces numériques, l'impact de la désinformation est d'une tout autre ampleur.

1. Qu'est-ce qu'une ingérence étrangère ?

Qu’est-ce qu’une ingérence étrangère ?

Il s’agit de l’intervention d’un État dans les affaires intérieures d’un autre État. Elle présente un caractère malveillant, toxique, voire délictueux, car elle vise à déstabiliser, à saper la confiance dans les institutions et les intérêts fondamentaux d'un pays, à engendrer de la confusion entre le vrai et le faux, à servir les intérêts d’une puissance étrangère, pouvant même aller jusqu’à tenter de détruire une cible, par exemple le système démocratique d’un État. Elle ne doit pas être confondue avec les politiques d’influence.

Les ingérences étrangères peuvent emprunter plusieurs vecteurs comme les cyberattaques, les manipulations de l’information, les atteintes au patrimoine scientifique et technique, l’utilisation du droit comme arme (lawfare), le recrutement d’anciens responsables politiques ou économiques, auxquels il faut ajouter une zone grise entre l’influence et l’ingérence, caractérisée par la recherche de la complaisance, de la connivence, voire de l’allégeance d’une partie des élites d’un pays.

L’espace numérique est le principal moyen utilisé par les puissances étrangères hostiles pour lancer des opérations de manipulations et de désinformations. La lutte contre l’ingérence numérique est devenu de ce fait un enjeu majeur pour de nombreux pays.

Pour être caractérisé d'ingérence numérique étrangère, un phénomène inauthentique doit combiner :

  • une atteinte potentielle aux intérêts fondamentaux de la Nation (intégrité du territoire et défense nationale, politique étrangère, préservation des intérêts économiques, industriels...) ;
  • un contenu manifestement inexact ou trompeur ;
  • une diffusion des contenus artificielle ou automatisée, massive et délibérée ;
  • l’implication d'acteurs étrangers (étatique ou non étatique).

Le service Viginum (dispositif piloté par le SGDSN) se concentre sur la protection de la liberté d'expression contre ces ingérences, tout en soulignant l'aspect intentionnel et la volonté de nuire aux intérêts nationaux.

La détection d'une interférence étrangère dans les élections est complexe car elle peut être difficile à distinguer du débat national démocratique. Tous les partis ont une légitimité à influencer les électeurs, mais les flux financiers peuvent être utilisés pour détecter une influence étrangère. Les interférences peuvent viser à favoriser un parti ou à décrédibiliser le processus électoral. Elles prennent diverses formes, comme des attaques informatiques, des rumeurs de fraude ou la dissuasion des votes. Les stratagèmes incluent le blanchiment d'information, l'inondation d'informations contradictoires et la polarisation des débats. Pour protéger les élections, il faut sensibiliser, former à reconnaître les ingérences et coopérer internationalement. Les processus cognitifs évoluent face à la diffusion non linéaire de l'information, mais l'efficacité des mesures contre les interférences reste à évaluer.

Les manipulations de l'information affectent le débat public en créant des doutes et des tensions, pouvant même conduire à des violences.

Les exemples avec le mouvement des gilets jaunes, la crise du COVID, l'assassinat de Samuel Paty, l'attentat de la cathédrale de Nice et plus récemment l'invasion généralisée de l'Ukraine par la Russie, montrent comment les ingérences étrangères cherchent à orienter les opinions, influencer les votes électoraux, ou discréditer des pays ou des entreprises.

Avec Internet et les réseaux sociaux, la désinformation peut se faire à un niveau industriel. En 2020, Marc Zuckerberg, le patron de Facebook, a révélé à la Conférence de Munich sur la sécurité du numérique, que plus d’un million de comptes factices sont supprimés chaque jour de son réseau social. La situation sur Twitter est certainement plus chaotique, surtout depuis le rachat par Elon Musk. En 2022, on estimait (analyse de Sparktoro) le nombre de faux comptes autour de 20%. Il ne semble pas que la situation est changée, elle est sans doute pire qu'avant le rachat, car la désinformation est amplifiée par l'existence des nouveaux comptes certifiés, qui échappent pour la plupart aux notes de la communauté.

2. Viginum, genèse et missions

Les campagnes de manipulation de l’information, organisées par l'étranger et visant à déstabiliser les États, se multiplient avec l'explosion des usages d'Internet et des réseaux sociaux. Face à la montée en puissance de ces menaces pour la démocratie, notamment suite aux scrutins présidentiels américains de 2016 et français de 2017, la France, comme d’autres pays, a décidé de renforcer son dispositif de lutte contre la manipulation de l’information, à l’instar de plusieurs États et institutions internationales (UE, G7, OCDE...).

Par un décret du 13 juillet 2021, le gouvernement a créé un service de vigilance et de protection contre les ingérences numériques étrangères (Viginum), rattaché au Secrétariat général de la défense et de la sécurité nationale (SGDSN), au sein des services de la Première ministre. Il a pour mission de détecter et de caractériser ces campagnes de manipulation de l’information en ligne qui visent à nuire aux intérêts fondamentaux de la France.

Un second décret du 7 décembre 2021 lui confère l’autorisation de collecter, exploiter et traiter de façon automatisée les données à caractère personnel sur les plateformes en ligne. L'action de ce service est suivie par un comité d'éthique et scientifique, présidé par un membre du Conseil d'État et secondé par un membre de l'Arcom (autorité de régulation de la communication audiovisuelle et numérique).

Le service Viginum, qui emploie une quarantaine d'agents, explore les contenus publiquement accessibles sur les plateformes en ligne pour repérer des "phénomènes inauthentiques" (comptes suspects, contenus malveillants, comportements anormaux ou coordonnés) qui seraient susceptibles de révéler une ingérence numérique étrangère.

Viginum combine des compétences en géopolitique, investigation en source ouverte et sciences de la donnée pour détecter les ingérences numériques. Son activité est encadrée par des réglementations juridiques et un comité éthique pour protéger la vie privée et garantir des pratiques éthiques.

3. Rapports publiés par Viginum

Viginum informe également le public, les autorités et les médias, en publiant des rapports d'analyse, sur les activités d'ingérence en ligne détectées, mettant en lumière des opérations d'influence exercées par un acteur étranger. Ces rapports peuvent contenir des informations sur les acteurs impliqués, les méthodes utilisées, les cibles visées, et les impacts potentiels sur la société et la sécurité nationale. Ils contribuent à sensibiliser et à éduquer sur les menaces et manipulations de l'information, tout en aidant à orienter les actions de défense et de réponse appropriées.

Premier rapport du comité éthique et scientifique à propos de la période d'activité de juillet 2021 à décembre 2022 : https://www.sgdsn.gouv.fr/files/files/Viginum%20-%20rapport%20CES.pdf

Rapport RRN sur la campagne manipulation de l'information pour discréditer le soutien occidental à l'Ukraine, entre septembre 2022 et juin 2023 : http://www.sgdsn.gouv.fr/files/files/13062023_RRN_....pdf

Rapports Portal Kombat:
Partie 1
Partie 2

Le rapport "Portal Combat" publié par Viginum en décembre 2023, a mis en lumière un réseau de propagande pro-kremlin (jusqu'à 193 sites web), organisé et coordonné, visant à affaiblir le soutien des alliés de l'Ukraine et à promouvoir les intérêts de la Russie. Ce réseau de sites prorusses existait avant l'invasion généralisée de l'Ukraine par la Russie. Il était initialement axé sur les informations locales russes et ukrainiennes, le réseau a ensuite réorienté son activité après cette invasion pour cibler les territoires ukrainiens occupés et plusieurs pays occidentaux, dont la France.

Ces sites relaient massivement des publications provenant de comptes de réseaux sociaux d'acteurs russes ou pro-russes, d'agences de presse russes et de sites officiels d'institutions ou d'acteurs locaux. L'objectif principal est de présenter positivement l'opération militaire russe en Ukraine et de dénigrer l'Ukraine et ses dirigeants. Les contenus, très orientés idéologiquement, sont souvent inexacts ou trompeurs.

Pour atteindre une large audience, le réseau utilise plusieurs techniques, comme la sélection minutieuse de sources de propagande pro-russe selon la localité ciblée, l'automatisation massive dans la diffusion des contenus, et l'optimisation du référencement sur les moteurs de recherche.

Le réseau est divisé en trois écosystèmes distincts : l'écosystème "pravda" ciblant les principaux pays occidentaux qui soutiennent l'Ukraine, l'écosystème "-news.ru" ciblant principalement les audiences russophones d'Ukraine, et l'écosystème "historique" ciblant les audiences russes et ukrainiennes.

Le rapport met en lumière les modes opératoires du réseau, notamment le travail de référencement sur les moteurs de recherche, l'automatisation dans la publication des contenus, et les erreurs commises dans l'automatisation de la diffusion des contenus, qui suggèrent l'implication d'un acteur d'origine russe ou russophone.

Enfin, le rapport souligne que les audiences sont ciblées selon leur localisation, avec des contenus sélectionnés pour chaque site. Après l'invasion de l'Ukraine, le réseau a montré une volonté d'accroître la pression informationnelle, avec des sites devenant de véritables "caisses de résonance" du dispositif d'influence numérique russe. Le réseau a également étendu sa portée aux audiences internationales, avec des contenus visant à présenter positivement l'invasion russe aux populations occidentales et à dénigrer l'Ukraine et ses dirigeants.

La révélation de ces campagnes a entraîné la fermeture de comptes télégrammes, bien que Viginum ne soit pas directement impliqué dans cette action.

Pour résumer, Viginum dans son rapport Portal Kombat a :

  • identifié les différents sites web impliqué dans ce réseau de propagande mis en place par la Russie.
  • décrit les objectifs de la campagne de désinformation
  • analysé le contenu diffusé sur ces sites afin d'identifier les thèmes récurrents, les messages clés et le narratif utilisé pour influence l'opinion publique.
  • décrit les méthodes utilisées pour diffuser et promouvoir ces messages, comme l'utilisation de faux-comptes sur les réseaux sociaux et la création de copies de sites d'informations (journaux, chaînes).
  • identifié les cibles spécifiques visées par ce réseau de désinformation, telles que les pays alliés de l'Ukraine, les institutions internationales, les opinions occidentales.
  • établi une chronologie de la création des sites identifiés dans cette opération d'influence.

Depuis le réseau Portal Kombat s'est étendu comme l'explique le rapport publié en février 2024

4. Cadre d'analyse DISARM

Viginum fournit également des informations et des outils pour aider à se protéger des risques de manipulations de l'information, notamment avec la Matrice DISARM

La matrice DISARM est un cadre d'analyse et de gestion des risques liés à la désinformation, créé par la société Viginum, inspirée par les pratiques de la sécurité de l’information qui s’appuie sur la structure de la matrice MITRE ATT&CK.

Son design lui permet d’intégrer les outils et les pratiques de la sécurité de l’information. Son objectif principal est d'aider les organisations à évaluer et à gérer les risques associés à la désinformation, en particulier dans le contexte numérique et en ligne.

La matrice DISARM se concentre sur plusieurs aspects clés de lutte contre les manipulations de l'information, tels que l'identification des sources de désinformation, la vérification des informations, l'évaluation de la crédibilité des sources, l'analyse des biais et des intentions, ainsi que la gestion des réponses et des contre-mesures.

Son utilité réside dans le fait qu'elle fournit un cadre structuré pour comprendre et gérer les risques liés à la désinformation. En utilisant la matrice DISARM, les organisations peuvent prendre des décisions plus éclairées concernant la façon de traiter et de contrer la désinformation, notamment en développant des stratégies de communication plus robustes, en renforçant les capacités de vérification des informations, et en améliorant la sensibilisation et la formation des individus concernés.

Résumé de la structure de DISARM

Planification

Planifier la stratégie : Définir l'état final recherché, c’est-à-dire l'ensemble des conditions requises permettant d'atteindre les objectifs stratégiques.

Planifier les objectifs : Définir des objectifs intermédiaires permettant d'atteindre l'état final recherché.

Analyser les publics cibles : Identifier et analyser des audiences ciblées, c’est-à-dire l'ensemble de leurs caractéristiques qu'une opération d'influence pourrait incorporer dans sa stratégie.

Préparation

Élaborer les récits : Promotion et renforcement des récits généraux en s’appuyant sur de nombreux récits locaux, diffusés régulièrement (à bas bruit en général) via les différentes ressources et supports créés pour la campagne.

Fabriquer du contenu : Création ou acquisition de textes, d’images et de tous contenus nécessaires au soutien des métas récits et des récits locaux ou secondaires.

Mettre en place des ressources informationnelles : Créer ou acquérir des vecteurs de communication (comptes de réseaux sociaux, chaînes de médias, fermes à trolls).

Établir la confiance : Établir des ressources qui suscitent la confiance.

Microcibler : Cibler des populations spécifiques.

Sélectionner des canaux et des fonctionnalités : La sélection des plateformes comprend à la fois le choix des plateformes sur lesquelles l'opération publiera son propre contenu et celui des plateformes sur lesquelles l'opération tentera de restreindre la publication des contenus adverses.

Exécution

Amorcer la campagne : Diffuser le contenu à petite échelle pour le tester et l'affiner.

Diffuser les contenus : Diffuser du contenu pour un large public.

Maximiser l'exposition : Maximiser l'exposition de l'audience cible aux contenus de la campagne.

Causer du tort en ligne : Actions entreprises, dans l'espace numérique, par une opération d'influence pour nuire à ses adversaires.

Mener des activités hors-ligne : Mobiliser les engagements en ligne pour mettre en place des actions hors-ligne.

Persister dans l'environnement informationnel : Toutes les actions prises pour permettre aux éléments créés pour la campagne de rester disponible dans l'environnement informationnel.

Evaluation

Mesurer l'efficacité et la performance : Mettre en place des métriques pour déterminer si les actions menées ont été bien accomplies, si la campagne a influencé les actions et les comportements.

5. Un contexte propice aux campagnes de désinformation

La France, comme ses alliés, est au cœur d'une campagne de désinformation provenant de différents pays et zones géographiques. Ces campagnes de désinformation sont accompagnées également de cyberattaques (venant essentiellement d'acteurs russes, chinois et nord coréens).

La Russie est l'acteur principal de ces campagnes de désinformation, en lien avec son invasion de l'Ukraine mais aussi de la présence française en Afrique, notamment au Sahel. Des campagnes de désinformations ont été menées avant les différents coups d'état au Mali, Burkina-Faso et Mali. Elles continuent après ces coups d'étant malgré le départ des troupes françaises. Elles sont essentiellement financées et organisées par la Russie, notamment à l’aide des fermes à trolls initialement créées par le groupe Wagner.

Faux medias et réseaux sociaux russes en Afrique
African initiative, nouvelle tête de pont de la propagande russe en Afrique
La Frane tente de riposter aux manipulations en Afrique

La Chine est l'autre grand acteur de campagne de désinformation en France et ailleurs. Les sujets ne manquent pas : Taiwan, disputes en mer de Chine, zone Indo-pacifique, le Tibet, les droits de l'homme, les Ouïghours et le Xinjiang, etc.

Opération de désinformation chinoise de grande ampleur démantelée par Meta Chine, désinformation, manipulations et agents d'influence sur les réseaux sociaux Raphaël Glucksmann vié par une campagne de désinformation de la Chine Opéaration Spamouflage, beaucoup de propagande chinoise pour presque rien

L'Iran fait maintenant de plus en plus parler d'elle. Elle ne se contente plus d'utiliser ses médias publics pour diffuser des fakes news ou de lancer des campagnes informationnelles, voire de lancer des cyber-attaques. Suite aux différentes affaires liées à la laïcité, aux manifestations suite à la mort de Masha Amini (et contre le voile) en Iran et plus récemment au conflit entre Israël et le Hamas, les campagnes de manipulations et de désinformations initiées par l'Iran se multiplient.

PressTV, une chaîne de désinformation iranienne
Guerre informationnelle : quand l'Iran tente d’influencer la politique française
Paris accuse la Turquie, l'Iran et l'Azerbaïdjan d'instrumentaliser les émeutes en France
L’Iran, carrefour de la propagande et de la désinformation

A l'occasion des jeux olympiques Paris 2024, l'Azerbaïdjan s'invite parmi les acteurs de désinformation en France (avec le soutien de son allié, la Turquie, dont la relation avec la France s'était dégradée en 2021). Cette campagne hostile est liée à l'accord militaire récent de la France avec l'Arménie, faisant suite au conflit avec l'Arménie en 2023 dans la région du Haut-Karabakh.

Paris 2024 : la France dénonce une campagne de désinformation liée à l’Azerbaïdjan
Déstabilisation, désinformation, sabotages : les cyberattaques de plus en plus performantes de l'Iran

Évidemment, les pays acteurs de campagnes de désinformation en France ne se limitent pas cette courte liste. On pourrait citer notamment le Maroc et l'Algérie, qui tente chacun d'influencer l'opinion par des campagnes de désinformation à propos du statut du Sahara occidental. Le Qatar également est un acteur de plus en plus présence. Cet état ne contente plus uniquement de campagnes d’influence (ciblant médias, députés et euro-députés) et d’opérations de corruption, il investit le numérique par des campagnes de manipulations. C’est notamment le cas depuis la dernière coupe du monde organisée au Qatar.

Autres liens utiles concernant l'ingérence numérique étrangère

L’ingérence étrangère dans les processus démocratiques de l’Union: deuxième rapport
Rapport parlemantaire sur les ingérences politiques, économiques et financières de puissances étrangères
Proposition de loi du Sénat : Ingérences étrangères en France
Lutte contre les ingérences étrangères : la proposition de loi de Renaissance adoptée à l'Assemblée nationale
Public Sénat : Ingérence étrangère : Comment la Russie nous manipule
Ingérence et élection, de quoi parle-t-on ? RAPPORT sur l’ingérence étrangère dans l’ensemble des processus démocratiques de l’Union européenne


Published

Category

Cybersécurité

Tags

Stay in Touch