Selon une étude publiée ce jeudi par l’ONG Avaaz, des millions de personnes sont encore confrontées chaque jour à des fausses informations sur Facebook, malgré les outils de lutte contre les infox. En réponse, Facebook promet de renforcer le signalement des fake news, avec un système d’alertes rétroactives.

Facebook est "un épicentre" de la crise actuelle autour du coronavirus
Facebook est "un épicentre" de la crise actuelle autour du coronavirus © AFP / Dominika Zarzycka / NurPhoto

Facebook est à l’épicentre de la crise de mésinformation”, explique-t-on au sein de l’ONG Avaaz. Partant de ce constat, et de la crise sanitaire actuelle, l’organisation a mené une enquête sur le traitement des “fake news” sur le réseau social, engagé dans une lutte d’ampleur contre le partage de ces fausses informations dans ses flux d’actualités.

Des contenus démentis mais toujours viraux

Les efforts de Facebook sont-ils suffisants ? Selon Avaaz, on est encore loin du compte : les enquêteurs de l’association ont observé la dissémination d’une centaine de contenus faux concernant le coronavirus. “Ces posts ont tous été vérifiés par des “fact-checkeurs" indépendants, dont certains qui sont partenaires de Facebook. En utilisant des outils utilisés par des chercheurs, on a cherché les occurrences de ces publications. Et pour 40% d’entre elles, malgré le fait qu’elles aient été “fact-checkées”, elles n’étaient pas étiquetées comme de la mésinformation”, détaille Julie Deruy, chargée de campagne chez Avaaz.

Ainsi, ces contenus restent extrêmement viraux : ils ont été partagés 1,7 million de fois, et vus près de 100 fois plus (117 millions de fois). En cause notamment, une lenteur dans le temps de réaction : l’étude montre qu’il faut jusqu’à 22 jours à Facebook pour accompagner un contenu de “mésinformation” d’un avertissement, une fois que celui-ci a été “fact-checké”. 

La France, meilleure élève

Dans le détail, la France apparaît plutôt bien lotie dans le traitement des fausses informations : selon le rapport, seuls 14% des contenus en français qui ont été “fact-checkés” ne sont pas identifiés comme tels. C’est moins que pour les contenus en anglais (29%), et beaucoup moins que pour ceux en espagnol (70%) et en italien (68%). 

Avaaz note par ailleurs qu’une autre étude universitaire, nommée “Corriger les intox”, a prouvé que lorsqu’un article faux est corrigé par un avertissement visuel dans le fil d’actualité de Facebook, la croyance des lecteurs en cette fausse information diminue d’environ 50%. Selon Fadi Quran, directeur de campagne : 

“Facebook dispose d’un vaccin contre l’infodémie : les études montrent qu’il permet de réduire de moitié la croyance en la mésinformation”.

L’identification visuelle apparaît donc contre un rempart efficace contre la dissémination de ces informations, faute de bénéficier d’algorithmes qui ne les feraient pas remonter dans les fils d’actualité. 

Un avertissement a posteriori

Face à ces signalements de la part de l’ONG, Facebook annonce ce jeudi la mise en place d’un nouvel outil : un système d’alertes envoyées à tous les utilisateurs exposés à des “fake news” sur la plateforme, qu’ils aient vu, commenté, like ou partagé l’un de ces contenus. 

Et ce, y compris a posteriori : un utilisateur pourra être alerté sur le caractère erroné d’une information qu’il a vue précédemment sur la plateforme. “C’est une très bonne étape, il est important de le souligner. C’est la première fois qu’une plateforme le fait, et l’impact peut-être énorme, se félicite Julie Deruy, car sur les sujets de santé, la mésinformation peut avoir des conséquences physiques dangereuses”. Mais l’ONG rappelle aussi que cette lutte contre les fake news dépasse le seul contexte de la crise du coronavirus, et doit s’étendre aux autres sujets sur lesquels de fausses informations circulent. 

Ce contenu n'est pas ouvert aux commentaires.