Avec Kévin Carillon, lauréat du Prix du CSA 2020
Le prix du CSA 2020 a été remis à Kévin Carillon pour son mémoire portant sur la question de la gestion des méga données à la RTBF. Intitulé « La RTBF et la problématique de la ‘’gestion des données’’. Une analyse des réseaux sociotechniques impliqués dans la collecte, le stockage et le traitement des mégadonnées », ce mémoire d’une grande qualité a séduit le jury du CSA, particulièrement pour son originalité dans l’approche du sujet. En effet, si le big data et les algorithmes sont régulièrement étudiés sous le prisme technologique, des usages ou encore des enjeux politiques, sociaux, juridiques, éthiques, etc. qu’ils soulèvent, il est moins courant d’étudier ces matières en prenant, comme point de départ, leurs impacts sur l’organisation des entreprises qui en sont à l’origine.
Nous avons rencontré le jeune chercheur pour saisir ses motivations, sa démarche et les conclusions de son travail.
Vous vous êtes penché sur les conséquences du big data et des algorithmes dans les entreprises médiatiques d’un point de vue sociologique. Qu’entendez-vous par « impact sociologique » et quel est l’apport de cette discipline ?
Tout a démarré à partir d’un article de presse en 2017 qui annonçait que la RTBF allait se mettre au big data. Cet article m’a immédiatement intéressé, car quand on parle du big data et des algorithmes, c’est très souvent lié à son impact sur les utilisateurs. Ici, on abordait la question de la mise en route d’un grand projet au sein de média public. J’ai alors décidé d’en savoir plus et j’ai passé quatre mois à la RTBF au sein de leur service, récent à l’époque, de gestion des données.
J’ai choisi de m’inscrire dans la socio-anthropologie des techniques et de l’innovation. Ce courant invite le chercheur à ne pas se contenter d’une analyse purement technique pour comprendre un phénomène, ici le big data. On va surtout essayer de comprendre comment la mise en place du big data se constitue au sein de réseau d’acteurs humains et non humains. Concrètement, on place l’humain au centre de l’organisation de ces objets techniques, ce qui nous permet de mieux comprendre comment ils impactent les publics externes, mais aussi l’ensemble des services qui composent la RTBF.
Votre mémoire porte surtout sur l’impact des méga données au sein de la RTBF. Quels sont les enseignements que vous tirez dans votre mémoire ?
Il faut savoir que l’intégration des méga données et des algorithmes représente un tournant très important à la RTBF qui a eu un impact énorme, tant d’un point de vue technique que sur l’ensemble de l’organisation de l’éditeur public.
En terme organisationnel, gérer et organiser des méga données implique de repenser totalement la manière dont l’information va circuler au sein de l’entreprise. Il faut que l’information circule efficacement et de manière transversale. Il y a quelques années, la structure de la RTBF était plutôt pyramidale et reposait sur des silos d’information. Chaque service et département disposait de ses propres informations et de sa manière spécifique de gérer les données. Il y a quelques années, la RTBF s’est lancée dans une grande opération de réforme en interne et est passée d’une structure verticale à horizontale avec, notamment, la mise en place de rédactions transversales en radio, télévision et web. Cette réforme a été pensée en même temps que l’intégration du big data au sein de l’entreprise.
D’un point de vue technique, la RTBF a été amenée à repenser en profondeur la manière dont elle traite et évalue les données internes et externes que chaque service ou rédaction reçoit. Pour rendre homogène et objectif ce traitement, elle a mis en place progressivement ce qu’on appelle des KPI, des indicateurs clés de performance. C’est un changement important puisque, dans le passé, on fonctionnait surtout sur l’expérience des rédactions et l’intuition pour évaluer et traiter les données.
À vous entendre, intégrer et gérer des méga données dans une organisation semble être une entreprise très complexe. Et les médias dits traditionnels auraient selon vous pris du retard dans leur transition numérique. Est-ce que les deux sont liés ?
Oui, tout à fait. On a souvent l’impression que les algorithmes et le big data sont des phénomènes qui se généralisent partout et qui fonctionnent de manière autonome, mais on oublie l’impact qu’ils représentent pour les organisations elles-mêmes et à quel point ces derniers sont importants. Nos médias dits traditionnels ont clairement pris du retard dans leur transition numérique, d’abord pour des questions financières. Créer des algorithmes pour gérer des méga données coûte extrêmement cher et reste très chronophage. Ensuite, il ne faut pas négliger l’impact organisationnel, surtout pour des entreprises qui n’ont pas été créées avec le big data en toile de fond, comme les GAFAN. Pour une entreprise historique et de grande taille comme la RTBF, c’est tout le système d’organisation qui a dû être repensé, avec les résistances, les obstacles et le temps que cela implique.
Que pensez-vous du fait que les médias dits « traditionnels » intègrent des technologies similaires à celles des GAFAN ?
Avant tout, il faut bien comprendre que l’on ne peut pas comparer les algorithmes de géants comme Facebook à ceux que mettent en place des médias comme la RTBF. Le chercheur Eric Sadin parle de « léviathan algorithmique » quand il décrit les GAFAN. Quand on parle de nos médias, on est clairement dans une autre échelle. Leur objectif est de surtout de mieux comprendre comment on fonctionne en interne et comment fonctionnent leurs publics.
Nos médias évoluent aujourd’hui dans un environnement extrêmement concurrentiel et cette concurrence s’est installée très rapidement avec les Netflix et consorts. La rapidité avec laquelle s’est installée cette concurrence explique aussi pourquoi on assiste aujourd’hui à une course des médias traditionnels dans leur transition numérique pour rattraper ce retard. À ce titre, il faut reconnaitre que la RTBF a eu beaucoup de flair. Avec notamment sa plateforme Auvio, qui se construit avec le plus grand algorithme de la RTBF et qui est devenue la principale source de récolte d’information de l’éditeur, la RTBF est l’un des médias publics les plus avancés d’Europe.
Les médias comprennent aujourd’hui l’importance de récolter efficacement des données et de créer des services comme Auvio qui construisent des algorithmes pertinents destinés à récolter les données des utilisateurs et à leur proposer des contenus. Sur la question de savoir si c’est bien ou mal de suivre cette voix, j’aime citer le chercheur Bernard Stiegler. Selon lui, tout objet technique peut être un remède ou un poison, tout dépend de la manière dont on les utilise. Si on développe des algorithmes dans le seul but de générer des profits, alors oui : les conséquences, bien connues aujourd’hui, peuvent être négatives ; mais on peut aussi poursuivre d’autres objectifs, comme l’efficacité ou une compréhension plus fine de ses publics.
C’est intéressant de voir comment la RTBF est d’ailleurs en réflexion sur ce point. En tant que service public, elle essaye aujourd’hui de mettre en place des algorithmes lui permettant de répondre à ses missions d’intérêt général. Des projets sont en cours pour diminuer les effets délétères de certains algorithmes de recommandation qui ont tendance à enfermer les publics dans des bulles de contenus, en leur proposant par exemple d’autres alternatives.
Évidemment ce sont des projets complexes tant sur le plan de la réflexion que sur l’aspect technique, mais il sera très intéressant de voir, dans quelques années, comment la RTBF a fait évoluer ses algorithmes pour mieux répondre à ses missions de service public.
En savoir plus sur le big data
En savoir plus sur le Prix du CSA
Postulez au 14ème Prix du CSA 2021
(Vidéo) Le mémoire de Kévin Carillon en trois minutes