Entretien avec Julien Giry, Conseiller en charge de l’information et de la désinformation au CSA
Des influenceurs d’extrême droite aux campagnes russes de manipulation, la désinformation continue de transformer l’espace public européen, amplifiée par les technologies comme l’IA et les deepfakes. Si les plateformes numériques jouent un rôle central dans sa propagation, les réponses européennes, du Digital Services Act aux initiatives éducatives, tentent d’encadrer ce phénomène sans tomber dans la censure. Pourtant, la lutte reste complexe : la désinformation nourrit défiance et polarisation, tout en interrogeant les limites de la liberté d’expression. L’harmonisation des politiques européennes et l’évolution des régulations demeurent cruciales pour préserver la stabilité démocratique et le rôle des régulateurs de médias européens se voit renforcer pour répondre à cet enjeu majeur. Pour mieux comprendre ce phénomène et les manières d’y répondre, nous avons poussé la porte de Julien Giry, Conseiller en information et désinformation du CSA.
Quelles sont les principales origines de désinformation en Europe aujourd’hui, et comment ces sources ont-elles évoluées au cours des dernières années ?
Actuellement, les principales origines de la désinformation eu Europe sont de deux ordres. Soit la désinformation provient directement de groupes ou d’influenceurs, principalement situés aux droites extrêmes, qui opèrent au sein des Etats qui composent le territoire européen. Cette désinformation concerne principalement les thématiques liées à l’immigration, l’islam ou l’invasion russe en Ukraine ; la question de la Covid-19 ayant reculé ces deux dernières années. Soit elle provient d’Etats extra-européens : on pense bien entendu à la Russie, la Chine, ou de leurs agents d’influence au sein des Etats européens. Lorsque l’on est en présence de véritables campagnes de désinformation, on parle alors de FIMI pour Foreign Information Manipulation and Interférence ou interférences et manipulations étrangères dans l’écosystème informationnel. Leurs principales thématiques sont l’invasion de la Russie en Ukraine, la corruption des élites européennes ou de l’Union européenne, ou encore le « mondialisme » destructeur, etc. Enfin, il convient de noter que de nombreuses désinformations et théories complotistes proviennent aussi de l’extrême droite américaine.
L’une des principales évolutions observées au cours des dernières années concerne l’apparition des Doppelgänger, un mot issu du folklore allemand qui signifie « sosie » ou « double d’une personne vivante ». En l’espèce, il s’agit de désigner par-là, le nom donné à une campagne de désinformation russe qui copie et imite divers sites internet de journaux d’information (Le Monde, The Guardian ou encore Bild) et d’organismes officiels afin de tromper les publics.
Enfin, lorsque l’on parle de la désinformation en 2024, on pense également à l’intelligence artificielle (I.A.), notamment aux deepfake – c’est-à-dire l’hypertrucage de vidéos et/ou de sons dont le cas de Robert Fico est un bon exemple – et aux contenus synthétiques, c’est-à-dire directement générés par l’I.A. Cependant, dans les faits, à suivre les différents rapports produits chaque mois par l’Observatoire Européen des médias, EDMO, la part des contenus générés par des I.A. ne dépasse jamais, pour l’heure et sans préjuger de l’avenir, 5% de l’ensemble des contenus désinformationnels analysés.
Comment les plateformes numériques, comme les réseaux sociaux ou les messageries cryptées, contribuent-elles à la propagation de la désinformation en Europe ?
Avant de répondre, il faut rappeler deux éléments. Premièrement, la plupart des plateformes sont d’origine américaine et développent donc une vision très extensive de la liberté d’expression telle que définie par le Ier amendement de la Constitution étatsunienne. Cette conception est relativement éloignée de celle qui prévaut en Europe où la liberté d’expression, principe fondamental s’il en est, demeure néanmoins largement encadrée par la loi et connait diverses limitations : discours de haine, discriminions, appels à la violence, cyberharcèlement, etc. Deuxièmement, les plateformes se sont dès leur origines auto-perçues comme des fournisseurs de service sans responsabilité éditoriale sur les contenus publiés par leurs usagers. Ces deux éléments expliquent, en partie au moins, pourquoi les plateformes n’ont pas véritablement mis en place de mécanismes destinés à limiter la diffusion de contenus désinformationnels en ligne. Il a vraiment fallu attendre les vagues de désinformation issues de la pandémie de Covid-19 et de l’invasion russe en Ukraine pour que les principales plateformes prennent en partie conscience de leurs responsabilités.
Pour en revenir à votre question, les plateformes et réseaux socionumériques constituent des accélérateurs de diffusion pour les contenus désinformationnels dans l’espace public numérique. Traditionnellement, les algorithmes de recommandation favorisaient la circulation des contenus polarisants ou sensationnalistes, ou privilégiant des sentiments négatifs tels que la colère, la haine ou la peur. Ainsi, en 2018, Vosoughi et ses collègues du MIT ont estimé que les contenus désinformationnels ou les fake news circulaient en moyenne six fois plus vite sur les réseaux socio-numériques que les informations authentiques.
La compréhension et la « maitrise » de ces dispositifs par des acteurs radicaux, mais aussi parfois étatiques, permet à ceux-ci de mener de véritables raids, c’est-à-dire de coordonner et de cibler efficacement des campagnes de désinformation tournées vers des publics potentiellement réceptifs. Par exemple, en ce qui concerne les messageries cryptées, on pense à l’usage de WhatsApp par Jair Bolsonaro et ses équipes lors de l’élection présidentielle au Brésil en 2018.
Enfin, le relatif anonymat dont jouissent les usagers sur les réseaux et le caractère privé des messageries cryptées favorisent, d’une part, la libération des discours extrémistes, radicaux, haineux ou conspirationnistes et, d’autre part, rendent parallèlement plus difficile la modération des contenus ainsi que la mise en cause de leurs auteurs.
Quels sont les impacts concrets de la désinformation sur la stabilité démocratique en Europe ?
Il est difficile de mesurer précisément quels sont les impacts ou les effets de la désinformation sur les régimes démocratiques en Europe dans la mesure où elle n’est jamais qu’un facteur parmi d’autres, notamment lors des processus électoraux. La défiance ou la contestation envers les régimes politiques en place est le fruit ou le produit de configurations sociologiques, politiques ou économiques complexes dont la désinformation ne saurait tout résumer à elle seule, bien au contraire. A titre d’exemple, l’étude réalisée par des chercheurs de Stanford quant à l’impact des fake news diffusées contre Hillary Clinton lors de la campagne présidentielle de 2016 souligne que, d’une part, seule une faible partie de l’électorat en a eu connaissance et que, d’autre part, elles n’ont pas joué de rôle décisif dans le résultat de l’élection.
Au-delà de ces éléments qu’il faut toujours garder en tête, la désinformation participe et alimente la défiance, en partie justifiée, envers les élites politiques. Elle favorise la polarisation dans l’espace public au détriment du débat démocratique, et elle peut conduire à la radicalisation, y compris parfois dans des formes violentes, d’une partie de la population. Elle peut enfin mener au rejet des politiques publiques, notamment en ce qui concerne la santé publique.
Contrairement à des contenus comme l’incitation à la haine, la désinformation n’est pas considérée par le DSA comme un contenu illicite, mais dommageable. Comment comprendre cette différence ?
Le DSA s’intéresse, il est vrai, principalement aux contenus illicites, c’est-à-dire ceux prohibés au niveau de l’Union européenne ou des Etats membres. On pense par exemple aux discours de haine, au terrorisme ou à la pédo-criminalité. En revanche, il vise de manière secondaire, aux articles 34 et 35, les contenus dommageables ou préjudiciels perçus comme des risques systémiques, c’est-à-dire à même de conduire à une dégradation brutale de l’écosystème démocratique. A la différence des contenus illicites, les contenus préjudiciels ne sont pas illégaux en tant que tels, mais ils peuvent faire courir des risques à certains types de publics, les mineurs notamment si on pense à la pornographie par exemple. Ils méritent donc une attention particulière des plateformes non pas quant à leurs contenus, mais quant aux outils ou dispositifs qu’elles mettent en place pour évaluer (art.34) et atténuer (art.35) leur circulation ou leur accessibilité. Parmi les quatre risques systémiques envisagés par le DSA, figure effectivement la désinformation.
Selon-vous, la désinformation devrait-elle tomber sous le coup des limites de la liberté d’expression et être tout simplement interdite, comme c’est le cas par exemple en France durant les périodes électorales ?
La question de l’interdiction de la désinformation est complexe. Tout d’abord parce qu’il est difficile pour ne pas dire impossible d’interdire à des idées ou à des opinions de circuler dans la sphère publique, numérique ou non. Certains Etats totalitaires, par exemple, ont essayé d’interdire les religions, ils n’y sont jamais parvenus. Ensuite, la notion même de désinformation comporte nécessairement une part de subjectivité. Ainsi, ce qui est perçu comme « faux » par certains ou à un moment donné pourrait être considéré comme une opinion légitime par d’autres ou à différents moments de l’Histoire. De sorte qu’une volonté d’interdiction stricte pourrait conduire à des formes de censure et donc atteinte à la liberté d’expression qui reste la norme au sein des régimes démocratiques. Plus encore, une telle volonté d’interdiction pourrait renforcer davantage encore la méfiance envers les autorités au sein des populations qui pourraient le percevoir comme la volonté de « contrôler » l’information, alimentant ainsi un peu plus les théories du complot et la défiance.
De mon point de vue, plus qu’une volonté d’interdire ou de combattre aveuglement, il est préférable, d’abord, de comprendre les enjeux liés à la désinformation et les raisons qui poussent des franges de la population à adhérer à ce type de discours. Ensuite, l’accent doit être mis sur la prévention auprès des usagers, le développement de la littéracie numérique et de la réflexivité critique sur la manière dont se construisent et se stabilisent des savoirs socialement situés ; le tout dans une approche didacticienne. De plus, et en cela l’approche du DSA est à mon sens la bonne dans la mesure où, comme je l’ai déjà dit, elle vise des techniques et des dispositifs et non des thématiques ou des contenus, il convient d’accentuer la transparence des algorithmes de recommandation des plateformes, de viser la démonétisation de la désinformation, de mettre en place la labellisation des contenus d’information qualitatifs, etc.
Enfin, il convient bien entendu de poursuivre les cas les plus flagrants de désinformation intentionnelle et massive ayant, ou ayant potentiellement, des conséquences graves et/ou violentes pour les personnes ou la démocratie.
Comment les États européens coordonnent-ils leurs efforts pour lutter contre la désinformation ? Existe-t-il des différences marquantes dans les réponses nationales ou une approche commune à l’échelle de l’Union européenne ?
La volonté de coordination d’une réponse européenne commune à la désinformation, notamment liée à la pandémie de Covid-19 et l’invasion russe en Ukraine, s’est précisément manifestée au travers de plusieurs dispositifs tels que « Plan d’action pour la démocratie en Europe » présenté en 2020 par la Commission européenne, la mise en place en juin 2022 du « Code renforcé de bonnes pratiques de lutte contre la désinformation » et, surtout, par la mise en œuvre du DSA dès août 2023 pour les très grandes plateformes en ligne et les très grands moteurs de recherche.
Avec ce règlement, il s’agissait pour la Commission européenne d’essayer d’harmoniser une politique commune face aux diverses et divergentes mesures et initiatives mises en place par les Etats membres. Ainsi, depuis 2018, la France instauré divers dispositifs législatifs (loi anti fake news, loi séparatisme, etc.), institutionnels (viginum, création de l’arcom, etc.) et éducatifs (EMI, « promeneurs du web », etc.) pour lutter contre la désinformation. De son côté, l’Allemagne a adopté sa NetzDG (loi sur l’application des réseaux) qui impose aux plateformes de retirer rapidement les contenus illégaux, y compris la désinformation. A l’inverse, la Belgique a fait le choix de ne pas adopter de loi spécifique contre la désinformation dans la mesure où diverses dispositions législatives encadrent la diffusion de contenus pouvant couvrir, en partie au moins, le champ de la désinformation.
L’UE a mis en place un plan d’action contre la désinformation et des initiatives comme le Code de bonnes pratiques. Quelles sont, selon vous, les limites et les réussites de ces initiatives ?
Effectivement, en plus du DSA, l’Union européenne a mis en place divers dispositifs non contraignants pour lutter contre la désinformation parmi lesquels le « Plan d’action pour la démocratie en Europe » et un « Code de bonnes pratiques de lutte contre la désinformation ». Depuis 2022, ce dernier a été renforcé et fait dorénavant l’objet de mesures et d’engagements liés à la publicité, y compris celle à caractère politique, en ligne et son financement, à la lutte contre les pratiques de manipulation de l’information, à la transparence algorithmique et à l’accès aux données. Les actions entreprises dans ces différents domaines par les plateformes et moteurs de recherche font l’objet d’un rapport une ou deux fois par an selon la taille des services. Bien que cela reste de l’autorégulation et que les rapports fournis par les plateformes demeurent souvent lacunaires, leur signature sur ce Code renforcé atteste tout de même d’une relative prise de conscience des grandes plateformes, X (ex-Twitter) excepté.
La prochaine étape est la conversion de ce Code renforcé en Code de conduite contraignant sous l’égide de l’article 45 du DSA. Cette conversion devrait être effective au 1er janvier 2025 et les mesures souscrites par les différents signataires deviendraient alors des obligations légales passibles de sanctions prévues par le DSA au cas où celles-ci ne seraient pas remplies. Reste à savoir à quels niveaux d’engagement les différentes plateformes sont prêtes à y souscrire, attestant par-là même de leurs intentions de lutter réellement ou non contre la désinformation.
Quelques ressources utiles pour aller plus loin :
https://www.science.org/doi/10.1126/science.aap9559
https://www.theguardian.com/world/2018/oct/25/brazil-president-jair-bolsonaro-whatsapp-fake-news
https://www.aeaweb.org/articles?id=10.1257/jep.31.2.211

