En poursuivant votre navigation, vous acceptez l’utilisation des cookies afin de vous proposer du contenu, des services et des publicités personnalisés selon vos centres d’intérêts.

Pour en savoir plus consultez notre politique de protection des données personnelles.

La chercheuse française Camille François est une référence sur la scène internationale en matière de lutte contre les fake news. — Mark Lennihan

« 20 MINUTES » AVEC

Coronavirus : « Le volume sans précédent de fake news illustre la viralité de la désinformation en temps de crise », estime Camille François

Propos recueillis par Hakima Bounemoura

Alors que les fausses informations se sont multipliées avec la crise du coronavirus, la chercheuse française Camille François revient sur les principaux enjeux liés à la lutte contre la désinformation

  • Tous les vendredis, 20 Minutes propose à une personnalité de commenter un phénomène de société, dans son rendez-vous hebdomadaire « 20 Minutes avec… ».
  • Installée au Etats-Unis, la chercheuse française Camille François traque les fausses informations en ligne, notamment pour les plateformes de la Silicon Valley, des laboratoires universitaires, des ONG ou des think tanks.
  • Elle a mis au jour ces dernières semaines de nombreuses campagnes de désinformation en lien avec la crise du Covid-19. « On a constaté un volume sans précédent de fausses informations autour du coronavirus, illustrant la viralité de la désinformation dans les situations de crise », explique-t-elle.

Elle est considérée outre-Atlantique comme une « héroïne de guerre ». Peu connue en France, la chercheuse Camille François est une référence sur la scène internationale en matière de lutte contre les fake news et les campagnes de désinformation sur les réseaux sociaux. Experte dans le domaine de la data science, la Française âgée de 30 ans installée aux Etats-Unis a rejoint l’an dernier le club des « 35 meilleurs innovateurs de moins de 35 ans » de la MIT Technology et figure cette année dans le classement des « 100 étoiles montantes qui vont changer le monde » du magazine Time.

Passée par Mozilla, puis par Google et son incubateur Jigsaw, où elle a contribué à mettre au point la stratégie du géant de l’Internet pour lutter contre les discours violents sur le Web, Camille François a rejoint en 2018  Graphika, une société spécialisée dans l’analyse de l’influence sur les réseaux sociaux. Trolls, bots, fausses infos et théories du complot : la chercheuse française et son équipe ont mis au jour ces dernières semaines de nombreuses campagnes de désinformation en lien avec la crise du coronavirus. 20 Minutes a interrogé la chercheuse, qui revient sur les principaux enjeux liés à la lutte contre les fausses infos, et sur la manière de lutter contre ce fléau qui menace nos démocraties.

On vous surnomme la « chasseuse de trolls » car vous passez vos journées à étudier de faux comptes Facebook ou Twitter. En quoi consiste concrètement votre travail ?

Mon travail est passionnant. Pour le résumer brièvement, j’analyse, j’enquête, je détecte et je mène des recherches sur les cyberguerres, le harcèlement en ligne et les campagnes de désinformation menées sur les réseaux sociaux. Au sein de Graphika, en tant que directrice de l’innovation, je supervise une équipe de chercheurs. Nous analysons comment les conversations se passent sur les plateformes, comment les informations circulent entre elles grâce au machine learning [technologie d’ intelligence artificielle]. Nous faisons également un travail d’enquête pour détecter les campagnes de manipulation de l’information en utilisant notamment la méthode du digital forensics [investigation numérique]. Nous créons aussi de nouveaux outils pour rendre les analyses et les détections plus rapides et efficaces grâce à la data science [science des données]. Et nous travaillons à la recherche et au développement avec les chercheurs et scientifiques en appliquant les principes de la network science [science des réseaux] ou du natural language processing (traitement automatique du langage naturel).

C’est vous qui avez mis au jour les campagnes d’ingérence russe dans l’élection présidentielle américaine de 2016…

On a en effet eu la chance de travailler avec la commission du renseignement du Sénat américain pour analyser des données en provenance des réseaux sociaux dans le cadre de l’enquête sur l’ingérence russe lors de la présidentielle de 2016. C’était un projet unique, nouveau dans son approche. Les sénateurs sont venus frapper à notre porte car ils avaient obtenu tout un tas de données des grandes plateformes [Facebook, Twitter, Youtube…] mais ne savaient pas comment les analyser. Ils avaient besoin d’une recherche indépendante et experte pour savoir ce qui s’était passé en 2016, et quel avait été le rôle de la Russie.

On est allés à Washington récupérer un disque dur crypté avec une montagne de données. On a bossé dessus pendant 8 mois, révélant la présence d’une gigantesque « usine à trolls » et son impact sur le débat public aux Etats-Unis. Et on a ainsi pu établir que cette campagne de désinformation était beaucoup plus globale et qu’elle n’avait pas seulement ciblé les États-Unis, mais aussi la France, l’Allemagne… Et c’est aussi la première fois qu’on s’est rendu compte que ces trolls se servaient des plateformes les unes contre les autres – comme un jeu du chat et de la souris - pour accroître leur influence. Cette analyse d’ensemble nous a permis de mieux comprendre à quel point il fallait que les défenses soient mieux coordonnées entre les plateformes.

Quels sont les différents types de fake news diffusées sur les réseaux sociaux ?

Quand on analyse les campagnes de désinformation, on utilise un cadre de travail que j’appelle le « framework ABC ». Il y a trois vecteurs qui peuvent définir une campagne de désinformation. Une info peut être une fake news à cause de l’acteur (A) qui est derrière la campagne. Cela peut aussi être lié la manière dont l’info est diffusée, au comportement, le « behaviour » (B). Ce sont toutes les techniques d’amplification ou de coordination qui rendent une info fausse, comme l’utilisation des bots pour faire croire à un mouvement spontané et authentique.

Et enfin, le contenu (C) en lui-même peut être une fake news. Avant la crise du coronavirus, c’était d’ailleurs le vecteur le moins utilisé par les réseaux sociaux qui préféraient intervenir dans la modération lorsque les conversations étaient manipulées, mais se refusaient à se faire l’arbitre des contenus. Depuis quelques semaines, et la prolifération des fausses infos sur le Covid-19, les plateformes sont beaucoup plus agressives et suppriment de plus en plus de contenus. C’est un changement stratégique très clair de leur part. Cela montre que la crise que l’on vient de vivre a véritablement changé la donne dans la manière de lutter contre les fake news.

La crise du coronavirus a montré la vulnérabilité de nos démocraties face au danger des fausses informations. Quelles ont été les principales campagnes de désinformation ces dernières semaines ?

On a constaté un volume sans précédent de désinformation autour du coronavirus, illustrant la viralité de la désinformation dans les situations de crise. Et on a noté quatre grands sous-types de contenus vraiment problématiques. D’abord une explosion des contenus racistes et anti-immigrants liés au coronavirus. On le voit très clairement à l’échelle globale dans nos analyses sur les discussions mondiales en ligne liées au Covid-19. C’est le cas par exemple aux États-Unis, en Italie, en France mais aussi en Inde. On a également eu une forte augmentation des contenus conspirationnistes. C’est très intéressant parce qu’on retrouve les théories du complot classiques qui ont finalement gagné énormément de terrain avec la crise sanitaire.

On a aussi noté de nombreux contenus sur la mésinformation médicale autour des chiffres, notamment des comptes qui diffusaient leurs propres calculs, graphiques et tableaux Excel, ce qui pour nous est un vrai marqueur du manque de confiance dans les autorités scientifiques. Et puis bien sûr, il y a eu toutes les fake news qui reposent sur la mésinformation concernant les remèdes possibles contre le virus, comme l’argent colloïdal, l’artemisia, le fenouil

Est-ce que cela a touché tous les supports, et tous les pays ?

L’ensemble des outils que les gens utilisent pour communiquer ont propagé des fake news. Aucune plateforme n’est résistante à la désinformation​. Ce que l’on a observé, en revanche, c’est que les fausses infos se manifestent de manière différente sur chaque support. Certaines plateformes ont été très vulnérables aux campagnes de désinformation, c’est le cas de Facebook ou Twitter. D’autres ont été plus robustes, comme Wikipédia qui s’en est très bien sorti car la plateforme repose sur des pratiques et un réseau de volontaires aguerris aux contenus conspirationnistes… Ce qui montre bien que la lutte contre les fake news n’est pas forcément une question financière, c’est aussi et surtout une question culturelle, et de structure.

A l’échelle mondiale, aucun pays n’a été épargné par les fake news, on en a noté dans toutes les conversations locales. L’Italie a par exemple très vite eu une conversation en ligne très forte et très active sur le coronavirus. Même les pays dans lesquels on voit les autorités publiques et sanitaires avoir pas mal d’influence sur la conversation - comme le Canada - n’ont pas été épargnés. Il n’y a malheureusement pas de frontières dans la propagation de la désinformation.

De nombreux comptes ont récemment été créés en France sur Twitter et sur Facebook pour défendre les positions parfois controversées du professeur Didier Raoult. Comment savoir s’il s’agit d’une réaction spontanée, ou de faux comptes créés pour influencer l’opinion publique ?

On a beaucoup parlé du professeur Raoult ici aussi aux États-Unis. En tant que Française, originaire de Marseille, on m’a même demandé mon avis ! La question des faux comptes et la manière de les quantifier est quelque chose sur lequel on a très peu de transparence. Les données qu’on a là-dessus sont très anecdotiques car quand les plateformes suppriment des faux comptes, il n’y a pas vraiment de rapport de transparence sur la nature et le volume de ces faux comptes.

Seules les opérations d’influence coordonnées avec plusieurs comptes commencent à être divulguées au grand public. Facebook appelle cela les «coordinated inauthentic behaviour » et ils font l’objet d’un rapport mensuel. De temps en temps, on trouve d’ailleurs des choses assez surprenantes dans ces rapports, comme par exemple la suppression de 60 comptes en lien avec les municipales à Sète (Hérault) en mars dernier ! C’est, en quelque sorte, la partie émergée de l’iceberg… Sur tout le reste, on n’a pas vraiment de données. C’est un champ de recherches sur lequel il y a énormément à faire, car on sait que beaucoup de faux comptes ont aujourd’hui un véritable impact sociétal.

Durant le confinement, les grandes plateformes ont pris de nombreuses mesures pour tenter de lutter contre les fake news. Faudrait-il aller plus loin, et les contraindre à agir plus efficacement ?

Les plateformes font beaucoup d’expériences en ce moment. On voit une montée en puissance de la modération algorithmique, qui historiquement n’a pas été très efficace, car les centres de modération ont dû être restructurés et souvent fermés à cause du confinement. Je pense personnellement que la régulation a absolument un rôle à jouer dans la modération des contenus sur Internet et qu’on ne peut pas attendre que les plateformes trouvent « les bons algorithmes » pour gérer ces questions.

Sur cette question, je publie bientôt avec un groupe de travail transatlantique un rapport qui donne quelques pistes sur ce que les Etats ont essayé de faire, et ce qu’on peut recommander aujourd’hui. On a étudié plusieurs propositions réglementaires, que ce soit en France, au Royaume-Uni ou en Allemagne, et avançons quelques propositions pour préserver les droits fondamentaux et responsabiliser les plateformes. Notre préoccupation, en écrivant ce rapport, était de trouver des mécanismes de régulation efficace qui puissent se conjuguer avec la liberté d’expression.

Le président Macron a déclaré être « en guerre » contre le coronavirus. Mais ne sommes-nous pas également entrés dans un autre conflit, celui de l’information ?

Je suis assez allergique à la thématique de la guerre qui suggère des approches militaires sur ces problématiques-là. On a plutôt besoin d’une approche collaborative profondément transparente, ancrée sur les valeurs des Droits de l’homme. J’entends cette préoccupation et la gravité de la situation, mais je me méfie toujours de ce vocabulaire belliqueux. Les fake news sont une vraie menace pour nos démocraties. On vit aujourd’hui dans un contexte particulier qui force les grandes institutions à essayer de comprendre comment se structure et évolue l’information en ligne.

Et dans ce cadre, le vocabulaire utilisé est très important. J’évite par exemple d’employer le terme de « fake news », dévoyée tous les jours par Trump lorsqu’il s’adresse aux médias. J’essaye d’être plus précise parce qu’il y a tellement de différence entre les communautés complotistes qui partagent des choses auxquelles elles croient, et les armées de bots qui repartagent automatiquement des contenus ! Il est important aujourd’hui de séparer tous ces concepts, et de les définir précisément pour pouvoir les combattre.

Vous êtes aujourd’hui considérée comme une experte reconnue. Mais peu de femmes travaillent encore aujourd’hui dans le domaine de l’intelligence artificielle…

Ce n’est pas tout à fait vrai. Il y a énormément de femmes qui font un travail extraordinaire, mais elles ne sont souvent pas citées, et pas reconnues à leur juste valeur. Il faudrait davantage leur donner la parole. Citons-les dans les articles, invitons-les dans les conférences, publions leurs travaux, elles sont là et elles existent ! Moi je suis très reconnaissante de toutes mes collègues qui ont été pionnières dans cette thématique-là de  la désinformation en ligne. Ce sont elles qui ont pris très tôt le sujet à bras-le-corps. Et elles méritent aujourd’hui de la reconnaissance !

À la une