Les grandes plateformes en ligne sont perméables à la désinformation et se désengagent

DésinformationRégulation | Régulation

Par Julien Giry, Conseiller en charge des questions de désinformation au CSA

Le Digital Services Act (DSA) entré pleinement en application en février 2024 impose une série de mesures aux plateformes, et notamment aux très grandes plateformes et très grands moteurs de recherche en ligne pour lutter contre les contenus prohibés et préjudiciables, notamment pour les publics jeunes ou vulnérables, qui constituent autant risques systémiques pour les démocraties occidentales. Parmi leurs obligations, les plateformes doivent par exemple faire preuve de transparence sur le fonctionnement de leurs algorithmes (référencement, recommandation et publicité), elles doivent garantir un niveau de protection élevé pour les mineurs, supprimer dans des délais courts les contenus illicites comme les discours de haine, et elles doivent aussi mettre en place les outils nécessaires pour lutter contre les risques systémiques (art.34 et 35), parmi lesquels figure la désinformation.

Dorénavant intégré au DSA (art.45) comme instrument de corégulation, un Code de conduite de lutte contre la désinformation offre un dispositif ayant pour objectif d’inciter les plateformes et les moteurs de recherche à respecter les obligations prévues par le DSA. Si la désinformation ne constitue pas un contenu illicite au regard du DSA, ses techniques, tactiques et processus de propagation peuvent constituer un véritable risque pour l’écosystème informationnel et politique, notamment durant les périodes électorales. Le Code, dorénavant reconnu par l’Union européenne comme le texte de référence dans la lutte contre la désinformation y compris pour les plateformes non-signataires (X ex-Twitter notamment), prévoit des mesures qui incluent la démonétisation des contenus trompeurs, la transparence de la publicité à caractère politique, la réduction des faux comptes, des deepfakes et des pratiques inauthentiques, ainsi que le renforcement des outils de signalement pour les usagers. La publication sur le site internet du Centre de Transparence du Code de rapports biannuels des actions mise en œuvre par les très grandes plateformes et très grands moteurs de recherche en ligne pour prévenir et remédier aux campagnes de désinformation constitue également une avancée en apparence positive.  

Aussi, dans le cadre de ses missions au sein du « Media Board » et de la task force en charge de la bonne exécution du Code, le CSA et ses homologues français, allemands et slovaques avaient analysé en profondeur les évolutions de l’engagement des grandes plateformes au sein du code. À l’issue de cette analyse, il apparaissait clairement une tendance générale au désengagement des très grandes plateformes et très grands moteurs de recherche alors même que le Code est devenu depuis le 1er juillet 2025 le maître-étalon de la lutte contre la désinformation dans le cadre du DSA.

Deux études récentes à grande échelle viennent appuyer le constat dressé par les régulateurs. La première, réalisée par le réseau européen des fact-checkeurs (EFCN pointe un désengagement massif des plateformes dans la vérification des faits. La seconde étude, réalisée par Science Feedback, évalue l’impact concret de la désinformation sur les plateformes, notamment en termes d’audience. 

Les plateformes se désengagent de leurs engagements en matière de lutte contre la désinformation : étude de l’EFCSN

Le 11 septembre 2025, le réseau européen des fact-checkeurs (EFCSN) a publié une analyse les derniers rapports des principaux très grands moteurs de recherche et plateformes en ligne relatifs au second semestre 2024. Selon ce rapport, les plateformes, d’une manière générale, ne respectent toujours pas pleinement leurs engagements pourtant librement souscrits.

Face à ces désengagements massifs portant sur une série de domaines tels que le fact-checking, les plateformes ne proposent pour l’heure que peu de pistes ou de solutions concrètes ou convaincantes qui permettraient de rassurer les régulateurs nationaux.

L’analyse présentée dans le rapport de l’EFCSN démontre que certains VLOPSE’s qui ont ignoré leurs engagements pendant des années, les ont officiellement abandonnés en 2025 lors du processus de conversion du Code. Les inquiétudes que le CSA et ses homologues européens avaient formulées en février dernier se confirment à nouveau.

Les principales conclusions du rapport: 

  • Malgré une volonté initiale de collaborer avec la communauté des fact-checkeurs, Google (Google Search et YouTube) s’est désengagé de la section du Code consacrée au fact-checking. YouTube ne propose aucune solution concrète pour intégrer le fact-checking à ses plateformes, tandis que Google a également supprimé son répertoire de fact-checking, pourtant efficace, ClaimReview.
  • Concernant Microsoft (Bing et LinkedIn), Bing n’a fourni que peu d’informations sur sa collaboration avec les fact-checkeurs, témoignant, selon l’EFCN, d’un manque de transparence.  Quant à LinkedIn, il s’est désengagé de la section du Code relative à la vérification des faits, affirmant qu’il « n’est pas proportionnel à son profil de risque », tout en s’appuyant sur un partenaire de vérification des faits unique pour couvrir toute l’Europe, « Reuters ».
  • TikTok dispose d’un programme de fact-checking et reste signataire de la section du Code afférente. Cependant, son contrat d’abonnement de janvier 2025 comportait un astérisque conditionnant les engagements à l’abonnement des autres plateformes. La vérification des faits de TikTok est liée à la modération, plutôt qu’à l’interaction avec les utilisateurs.
  • Pour Meta (Facebook et Instagram), le programme de fact-checking par des tiers demeure largement le meilleur. Toutefois l’EFCSN se dit préoccupé par son avenir, compte tenu de l’annonce début 2025 d’y mettre fin aux États-Unis dans un premier temps et la volonté de Meta de mettre en place un modèle de « community notes » qui a déjà montré ses premiers signes de faiblesse sur X (ex-Twitter).

Les plateformes en ligne sont perméables à la désinformation : étude du consortium Science Feedback


Réalisée par Science Feedback avec le soutien de partenaires européens (Newtral, Demagog SK, Pravda, Check First et l’Université Oberta de Catalunya), cette analyse constitue la première évaluation à grande échelle des indicateurs structurels prévus par le Code de conduite sur la désinformation. Elle s’appuie sur l’examen de six plateformes (Facebook, Instagram, LinkedIn, TikTok, X/Twitter et YouTube) dans quatre États membres (France, Pologne, Slovaquie et Espagne).

L’étude mesure notamment la perméabilité des plateformes à la désinformation, la visibilité relative des sources crédibles et non crédibles, ainsi que les mécanismes de monétisation de ces contenus.
Ses conclusions soulèvent de sérieuses questions quant à la conformité des pratiques des plateformes avec les obligations de réduction des risques systémiques imposées par le DSA.

Pour rappel, les plateformes sont tenues de réduire la diffusion et l’impact des contenus trompeurs et éviter de les encourager financièrement. Les résultats de l’étude montrent qu’au contraire, les contenus trompeurs sont répandus sur toutes les plateformes, que les personnes qui diffusent régulièrement de la désinformation bénéficient d’une prime d’engagement durable et que la démonétisation n’est pas pleinement opérationnelle, notamment sur YouTube.

Prévalence

TikTok affiche la plus forte prévalence de mésinformation ou de désinformation (environ 20 % des publications), suivie de Facebook (13 %), X/Twitter (11 %), YouTube et Instagram (8 %), et LinkedIn (2 %).
Lorsqu’on inclut les contenus abusifs (discours haineux, par exemple) et les contenus limites (soutenant des narratifs trompeurs sans affirmation vérifiable), la proportion grimpe à 34 % sur TikTok, 32 % sur Twitter, 27 % sur Facebook, 22 % sur YouTube, 19 % sur Instagram et 8 % sur LinkedIn.

Sources – Une « prime à la désinformation »

Les comptes diffusant régulièrement des informations peu crédibles génèrent davantage d’engagement par publication (pour 1 000 abonnés) que les comptes fiables, sur toutes les plateformes à l’exception de LinkedIn.
Cette prime d’amplification est particulièrement marquée sur YouTube (×8) et Facebook (×7), suivis d’Instagram et Twitter (×5), et dans une moindre mesure sur TikTok (×2).
Seul LinkedIn échappe à cette tendance, indiquant que les diffuseurs de désinformation n’y bénéficient pas d’une visibilité accrue.

3) Présence multiplateforme

Les acteurs à faible crédibilité sont plus présents sur plusieurs plateformes que les sources fiables :
+34 % sur X/Twitter, +23 % sur Facebook, +17 % sur TikTok.
À l’inverse, ils sont nettement moins présents sur LinkedIn (-80 %) et Instagram (-33 %).

4) Monétisation

Aucune plateforme n’empêche totalement la monétisation des contenus de désinformation.

  • Sur YouTube, environ 76 % des chaînes peu crédibles éligibles sont monétisées (contre 79 % des chaînes fiables).
  • Sur Facebook, 20 % des pages peu crédibles sont monétisées (contre 60 % des pages crédibles).
  • Les publicités Google Display apparaissent sur 27 % des sites à faible crédibilité (contre 70 % des sites crédibles).

En conclusion, malgré les engagements pris dans le cadre du Code de conduite européen contre la désinformation et les obligations du DSA, les résultats de ces deux études montrent que :

  • les plateformes se sont largement désengagées en matière de vérification des faits
  • les contenus trompeurs restent massivement présents sur les plateformes ;
  • les diffuseurs récurrents de désinformation bénéficient d’un avantage d’engagement durable ;
  • les mécanismes de démonétisation sont encore insuffisants, notamment sur YouTube.

Ces éléments soulignent la nécessité de renforcer la transparence, la responsabilité et la régulation systémique des grandes plateformes afin de garantir un environnement numérique qui valorise les informations fiables et protège le débat public européen. Aussi, le CSA en appelle à la responsabilité des plateformes et moteurs de recherche afin qu’ils se conforment enfin à leurs obligations en matière de lutte contre la désinformation et il se tient prêt, aux côtés, de la Commission européenne, des coordinateurs nationaux pour les services numériques et de ses homologues du media board, à faire respecter le cadre législatif européen essentiel pour la protection des usagers et le renforcement de la souveraineté numérique européenne.

Vous désirez en savoir plus sur la régulation des plateformes en ligne ? Consultez la section du site du CSA dédiée aux questions européennes 

   Send article as PDF