La plateforme de vidéo en ligne favorise-t-elle certains candidats ? Oui... mais bien involontairement, selon AlgoTransparency, qui tente de décrypter ses recommandations.

Sous chaque vidéo, YouTube vous propose d'autres vidéos, parfois pour des raisons obscures
Sous chaque vidéo, YouTube vous propose d'autres vidéos, parfois pour des raisons obscures © Radio France / Olivier Bénis

Le titre de cet article vous a intrigué ? Vous avez cliqué sur le lien pour assouvir votre curiosité en le voyant passer sur Facebook ou Twitter ? Ça tombe bien, c'était le but. Un titre accrocheur (ou "p*** à clics" dans le jargon), c'est l'une des méthodes classiques des youtubeurs pour rendre leurs œuvres aussi visibles que possible. Pour certains, c'est un vrai métier, dont les revenus sont directement liés à la popularité de leurs vidéos. Mais pour les politiques, l'enjeu est tout autre : plus de visibilité, c'est plus de chances de vous convaincre de voter pour eux.

Pour y parvenir, il faut plaire. Au spectateur, bien sûr... Mais pas seulement. Sur YouTube, l'objectif est de vous inciter à regarder d'autres vidéos après celle que vous êtes en train de visionner. La plateforme vous propose donc en permanence une liste de vidéos, sur le même thème, susceptibles de vous intéresser. Et pour élaborer cette liste, YouTube se base sur un algorithme de recommandation qui prend en compte un certain nombre de critères : le thème bien sûr, mais aussi et surtout la popularité (le nombre de vues, le nombre de "pouces bleus" laissés comme avis positifs, le nombre de commentaires, etc.)

Le problème, c'est que le fonctionnement de cet algorithme est totalement obscur. Google (qui possède YouTube) en garde jalousement le secret, le modifiant même régulièrement quand certains commencent à trouver des astuces pour "tricher" et faire remonter plus ou moins artificiellement une vidéo dans les recommandations.

Trois candidats se partagent 60 % des recommandations

Depuis le 27 mars, le projet AlgoTransparency s'amuse donc à recenser, à l'aide d'un robot, toutes les vidéos proposées pour chaque recherche du nom d'un candidat, et à compter combien de fois chacun d'eux est cité dans la liste des recommandations de vidéos sur ses adversaires. Le résultat est assez savoureux.

Du 27 mars au 10 avril, quel que soit le candidat que l'on recherchait, 22,9 % des vidéos proposées à la lecture concernaient Jean-Luc Mélenchon. Il est suivi de près par Marine Le Pen (20,7 %) et, plus surprenant, François Asselineau, qui apparaît comme par magie dans 15,8 % des vidéos recommandées. À eux trois, ils monopolisent près de 60 % des recommandations "politiques" de YouTube. François Asselineau est deux fois plus "recommandé" que des candidats comme Philippe Poutou ou Benoît Hamon. Presque l'inverse des intentions de vote dans les sondages.

Encore plus intrigant, faire une recherche sur un candidat ne vous amènera pas forcément à d'autres vidéos sur le même candidat. Par exemple, en cherchant "Emmanuel Macron", la vidéo la plus susceptible d'être suggérée par YouTube est une réponse originale : "Et pourquoi pas Mélenchon ?" Cette même vidéo est aussi la plus proposée sous les vidéos parlant de Nathalie Arthaud, Nicolas Dupont-Aignan, Benoît Hamon, Philippe Poutou et, évidemment, Jean-Luc Mélenchon lui-même.

Plus largement, ces trois candidats sont les rois de l'algorithme YouTube. Vous avez fait une recherche sur Nathalie Arthaud ou Philippe Poutou ? Les vidéos les plus recommandés évoquent Jean-Luc Mélenchon. Sur Nicolas Dupont-Aignan ou Benoît Hamon ? On vous redirige plus volontiers vers Marine Le Pen. Sur François Fillon, Jean Lassalle, Emmanuel Macron ou Jacques Cheminade ? Vous serez certainement plus intéressé par François Asselineau, selon l'algorithme.

Pas de biais, selon YouTube

Cela ne signifie évidemment pas que YouTube favorise volontairement tel ou tel candidat. D'ailleurs, un porte-parole officiel du site rappelle qu'il s'agit bien d'un algorithme, indépendant de toute opinion politique :

"Les utilisateurs de YouTube s'intéressent à une large diversité de contenus et les recommandations proposées par notre algorithme en sont le reflet. Toute insinuation selon laquelle notre algorithme serait biaisé en faveur de certains candidats est fausse. En réalité, notre algorithme recommande toutes sortes de contenus, issus des chaînes officielles des candidats, de médias ou de créateurs, reflétant toutes les opinions politiques."

Reste que mélanger politique et statistiques peut parfois donner des résultats surprenants.

Derniers Articles
Société
Périphéries, la 500è - Se raconter
26 avril 2017
Culture
ORLAN.
26 avril 2017
Société
La presse française malmenée
26 avril 2017
Ce contenu n'est pas ouvert aux commentaires.