Selon une enquête du Guardian, les algorithmes de suggestion de YouTube auraient tendance à mettre en avant des vidéos aux contenus extrêmes. Epargné jusqu'ici, YouTube pourrait, au même titre que Facebook ou Twitter, être accusé d'avoir influencé les résultats de la campagne américaine.

Le site AlgoTransparency recense les vidéos les plus suggérées par YouTube sur certains sujets sensibles
Le site AlgoTransparency recense les vidéos les plus suggérées par YouTube sur certains sujets sensibles © AlgoTransparency

Pour comprendre ces révélations du Guardian,  il faut regarder comment fonctionne aujourd'hui le géant de la vidéo sur Internet. YouTube c'est un milliard d'heures de vidéo visionnées chaque jour. Le but de la plateforme est de vous garder sur le site le plus longtemps possible. Pour cela, une fois la vidéo que vous souhaitiez regarder terminée, une autre s'enchaîne automatiquement. Ces vidéos sont suggérées par YouTube, elles apparaissent dans la colonne de droite.  Quand il s'agit de musique ou d'extrait de films ou de séries, rien à signaler. En revanche, le problème arrive quand on regarde des vidéos un peu plus sensibles sur la planète, le 11 septembre ou le pape François. Là, très rapidement dans les vidéos suggérées apparaissent des films prouvant que la terre est plate, qu' aucun avion n'a percuté le World Trade Center ou que le pape est en fait l'antéchrist. Et cela car l'algorithme a remarqué que les personnes qui restent le plus longtemps sur YouTube sont celles qui regardent ce type de vidéos.

Celui qui dénonce cet algorithme de recommandation est un ancien salarié de YouTube. Il s'appelle Guillaume Chaslot, c'est un ingénieur français qui a travaillé pour le géant de la vidéo pendant 3 ans avant d'être licencié en 2013.  Il y a 18 mois il a créé un système Algotransparency qui permet de voir qu'elles sont les vidéos les plus suggérées par YouTube. Selon Guillaume Chaslot, Dieudonné aurait été  par exemple recommandé entre 500 millions et 1, 5 milliards de fois par YouTube parce qu'il est extrêmement efficace pour faire rester les gens sur la plateforme. Autre exemple :  sur l'élection présidentielle américaine, The Guardian a analysé 1000 des vidéos les plus recommandés par le site. Il y en aurait eu 6 fois plus qui avantageaient Donald Trump qu'Hilary Clinton et beaucoup répandaient des fausses informations sur la candidate. 

Google, propriétaire de YouTube, a dans un premier temps contesté la méthode utilisée par le Guardian et expliqué que l'algorithme avait beaucoup changé depuis le départ de Guillaume Chaslot. Mais après la fuite d'un courrier du sénateur Mark Warner, membre de la commission d'enquête sur l'ingérence russe dans l'élection américaine, le géant a fini par annoncer qu'il travaillait sur une solution pour limiter ce type de contenus. 

Nous contacter
Ce contenu n'est pas ouvert aux commentaires.