Le réseau social a annoncé ce mercredi l'embauche de 3.000 personnes pour filtrer les contenus violents sur la plateforme Facebook Live, après plusieurs meurtres en direct.

Facebook concerne aujourd'hui près de 2 milliards d'utilisateurs dans le monde
Facebook concerne aujourd'hui près de 2 milliards d'utilisateurs dans le monde © AFP / Justin Tallis

Avec ces nouvelles embauches, les rangs de l'équipe opérationnelle de Facebook vont grossir de deux tiers : mercredi, le patron de Facebook Mark Zuckerberg a annoncé l'embauche de 3.000 nouveaux employés pour s'occuper du filtrage et de la modération des contenus sur la plateforme de diffusion de vidéos en direct Facebook Live.

Ces 3.000 personnes, qui viendront aux côtés d'une équipe opérationnelle riche de 4.500 employés déjà, "aideront à mieux supprimer les contenus qui ne sont pas autorisés sur Facebook, comme les propos haineux ou le trafic d'enfants".

Pourquoi cette annonce d'embauches massives ?

Parce qu'il y a urgence, pour Facebook, à trouver une façon de limiter les abus sur sa plateforme de live qui peut potentiellement toucher les presque deux milliards de membres de compte le réseau. Depuis début 2017, le nombre de polémiques autour de ces vidéos en direct a grimpé en flèche, avec plusieurs suicides diffusés en direct par leurs auteurs.

Mi-avril, un Américain a annoncé sur Facebook Live son intention de commettre un meurtre, avant un passage à l'acte lui aussi filmé, à Cleveland. Après trois jours de fuite, Steve Stephens s'est finalement suicidé, toujours en se filmant. Après l'affaire Stephens, Mark Zuckerberg avait déclaré :

"Nous avons beaucoup de travail et nous continuerons de faire tout ce que nous pouvons pour empêcher ce genre de tragédies d'arriver"

Enfin la semaine dernière, un Thaïlandais a tué son bébé de 11 mois avant de se suicider en direct. Une nouvelle polémique qui a peut-être finalement décidé Facebook à agir.

Quels contenus vont être filtrés ?

Les conditions d'utilisation de Facebook Live sont les mêmes que celles du réseau social en général : en 2013, un site américain, relayé en France par Le Monde, avait dévoilé le document indiquant les contenus censurés par Facebook : le nu, l'acte sexuel, l'usage de drogue, les tortures (envers des humains comme des animaux), les violences mais aussi les appels à la violence sont condamnés, ainsi que certains contenus qui vont à l'encontre des lois dans les pays où le réseau est implanté (les atteintes à la loi mémorielle en France, les attaques contre le drapeau national en Turquie, etc).

Comment la modération va-t-elle se faire ?

C'est là que ça se corse : comment filtrer une vidéo lorsqu'elle est diffusée en direct ? En temps normal, Facebook exerce une modération a posteriori, basée sur les signalements d'autres utilisateurs. Que se passe-t-il, alors, si personne ne signale ? La vidéo a toute les chances de rester en ligne : c'est d'ailleurs ce qu'il s'est passé dans l'affaire Stephens aux Etats-Unis : le tueur avait publié une première vidéo pour annoncer son acte à 11h09 un dimanche matin, puis une seconde quelques minutes plus tard où il le commettait. Son compte n'a été désactivé que deux heures plus tard, parce que les premiers signalements ont été donnés une heure et demie après la publication de la vidéo incriminée.

►ÉCOUTER | "Prévenir l'arrivée de ces contenus choquants est absolument impossible" : le reportage de Géraldine Hallot

Pour pallier ces dysfonctionnements, Facebook a mis en place un contrôle systématique des vidéos qui dépassent un certain nombre de spectateurs. La vidéo du meurtre de Cleveland n'avait pas atteint ce seuil de spectateurs. Mais avec la nette augmentation du nombre de modérateurs, ce seuil de contrôle pourrait être abaissé. Enfin, le patron de Facebook évoquait en février le fait que l'intelligence artificielle que développe Facebook pourrait, à terme, aider à identifier des éléments violents dans les vidéos avant qu'un contrôle humain soit appliqué.

Il ne sera pas question pour Facebook que de supprimer les vidéos concernées, mais aussi de "continuer à travailler avec les communautés locales et la police pour aider les personnes qui en ont besoin, qui sont sur le point de se faire du mal ou sont en danger à cause d'autrui". Car les vidéos Facebook Live peuvent aussi servir à lancer des alertes : dans la nuit de mardi à mercredi, une adolescente de 15 ans a été sauvée par les pompiers alors qu'elle tentait de se suicider sur Facebook Live. Les secours avaient été prévenus par une amie de la jeune fille, qui avait vu la vidéo sur Facebook.

Ce contenu n'est pas ouvert aux commentaires.