Les nouvelles révélations du consortium de journalistes des "Facebook files" montrent qu’à de nombreuses reprises, Facebook a vu les règles de son algorithme lui échapper. Depuis quelques années, le réseau social doit se résigner à corriger le tir d’une formule devenue indomptable.

Facebook est dans le viseur des autorités et des médias depuis plusieurs semaines
Facebook est dans le viseur des autorités et des médias depuis plusieurs semaines © AFP / Kirill KUDRYAVTSEV

Il est souvent entendu que l’algorithme de Facebook, cette formule mathématique qui décide quelles publications vous sont montrées en priorité, est une formule secrète. Mais… et si les ingénieurs eux-mêmes du réseau social ne comprenaient plus vraiment ce que fait l’algorithme de Facebook ? C’est ce qui ressort des nouvelles révélations du consortium de presse Facebook Files - représenté en France par Le Monde, qui épluche les documents internes copiés par la lanceuse d’alerte Frances Haugen.

Selon les documents révélés, à force de modifier et d’ajouter des couches à son algorithme pour le rendre toujours plus pertinent, les équipes de Facebook ont parfois obtenu le résultat inverse. Exemple de ce phénomène : chaque publication est affectée d’un "score" qui lui permet de remonter plus ou moins dans les fils d’actualité. Mais avec l’accumulation des critères permettant de calculer les scores, certaines publications atteignent un score astronomique ("il peut dépasser un milliard", selon l'enquête du Monde). Résultat : même avec une modération à la main, il est impossible de les empêcher de s'afficher.

Dommages collatéraux

Ce n’est qu’un exemple parmi d’autres de cas où les ingénieurs de Facebook n’ont pas réussi à limiter les dommages collatéraux des changements d’algorithmes - et ce notamment parce que chaque équipe travaille sur des modifications de son côté, sans "une vision systémique unifiée". Autre exemple : lorsque Facebook a annoncé en 2018 vouloir renforcer les interactions avec les personnes que l'on connaît plutôt qu'avec des pages "likées", cela a renforcé la présence de contenus complotistes ou d'extrême-droite, car ceux-ci sont plus partagés par des comptes de particuliers que par des pages.

Et inversement, lorsque les contenus "engendrant de la colère" semblent apparaître moins souvent sur Facebook, comme c'est le cas depuis quelques mois, les ingénieurs de l'algorithme semblent incapables d'expliquer pourquoi. Chez Facebook, une cellule nommée "integrity" est chargée de limiter les "deep reshares", c'est-à-dire les partages de contenus venant d'amis d'amis... mais elle le fait avec parcimonie, car cet outil est dit "brutal" et "touche aussi des messages positifs ou anodins".

L’engagement à tout prix ?

Mais selon les détracteurs de Facebook, l’entreprise continue à privilégier "l’engagement", c’est-à-dire le fait de partager de nombreux contenus, car c’est cela qui lui permet d’engranger des revenus publicitaires. La plateforme dément et dit que cela serait "un non-sens", car son intérêt est que les utilisateurs et utilisatrices s’y sentent bien à long terme, pour que le réseau social ne soit pas déserté par les internautes - et donc par les annonceurs.

Ainsi, aujourd’hui, les outils mis en place essaient de contourner l’utilisation de cet algorithme qui le dépasse - et qui dépasse d’autres plateformes qui fonctionnent sur le même principe, comme les tendances TikTok ou YouTube - en imposant par exemple aux utilisateurs d’avoir lu un article avant de le partager, ou en mettant en place de meilleurs processus internes sur le contrôle de l’algorithme. Mais tout cela, selon l’enquête, va à l’encontre du principe d’une plateforme dont la raison d’être est de rendre plus visibles les contenus qui marchent le mieux.