La proposition de loi "visant à lutter contre les contenus haineux sur internet" affiche son ambition : responsabiliser les plateformes et les obliger à supprimer rapidement les propos ou images "illicites", sous la menace de sanctions. Mais la méthode prônée par le gouvernement ne fait pas l'unanimité.

La proposition de loi contre la haine en ligne est discutée au Sénat le 26 février.
La proposition de loi contre la haine en ligne est discutée au Sénat le 26 février. © AFP / Fanatic Studio / Gay Waters / Scien / FST / Science photo library

Depuis son dépôt en mars, la proposition de loi portée par la députée LREM, Lætitia Avia, agite les passions. Les sénateurs et les députés n’étant pas parvenus à se mettre d’accord, la dernière version adoptée par l’Assemblée nationale sera celle retenue si les deux chambres ne s’accordent toujours pas.

Le gouvernement ayant engagé une procédure accélérée sur cette proposition, il n’y aura pas plus de navette, ni étude d’impact, au grand dam de plusieurs associations, syndicats ou institutions qui s’inquiètent de ses éventuels effets pervers. France Inter vous détaille les points les plus importants de cette nouvelle loi.

24 heures pour supprimer les contenus "manifestement illicites"

Du côté des députés, c’est l’obligation de résultat qui prime, quitte à confier aux plateformes elles-mêmes la mission de “police” du web. La loi obligerait ainsi Google, Facebook, Twitter et les autres réseaux sociaux, plateformes collaboratives et moteurs de recherche atteignant un certain nombre d’utilisateurs sur le territoire français (fixé par décret), à retirer des contenus dits “haineux”, dans un délai de 24 heures après leur signalement.

Depuis 2004 et la loi pour la confiance dans l’économie numérique, les plateformes ont déjà l’obligation de retirer “promptement” des contenus “manifestement illicites” portés à leur connaissance. Si le caractère illicite n’est pas évident, c’est au juge de trancher. La loi Avia va plus loin. Elle entend définir un ensemble de contenus “haineux” ou “injurieux” qui devront être retirés en moins de 24 heures. Quant aux provocations ou apologies du terrorisme et aux images pédo-pornographiques, elles devront désormais être retirées en moins d’une heure.

La principale divergence entre députés et sénateurs porte sur ce premier article “qui crée un délit de ‘non retrait’ en 24 heures des contenus haineux. Ce dispositif est juridiquement inabouti, contraire au droit européen et déséquilibré au détriment de la liberté d’expression”, juge le sénateur LR et rapporteur de la Commission des lois, Christophe-André Frassa. 

En effet, ce sera aux plateformes de déterminer dans un premier temps du caractère “manifestement illicite” d’un contenu, dans ce délai très court. La décision de retrait d'un contenu (comme celle du non-retrait) pourra ensuite être contestée.

“C’est au juge, et à lui seul, d’apprécier le caractère abusif de l’exercice de la liberté d’expression”, rappelle de son côté la Commission nationale consultative des droits de l’Homme (CNCDH) qui partage, avec la Commission européenne et le Conseil national du numérique, la crainte d'une “suppression excessive de contenus”, le délai imposé étant jugé trop court pour une “évaluation contextuelle” des contenus. 

Autrement dit : pressées par le risque de sanctions, les géants du web pourraient avoir la main lourde sur la suppression de contenus, pour ne pas prendre le moindre risque.

Un champ d'action très voire trop large

C’est l’autre reproche fait à la loi : son domaine d’application, aussi vaste que flou. Parmi les infractions qui devraient faire l’objet d’un retrait en 24 heures en cas de signalement, on trouve aussi bien l’apologie des atteintes volontaires à la vie, des crimes contre l’humanité, en passant par leur négation, que le harcèlement sexuel, l’injure et les provocations à la discrimination, à la haine ou à la violence à l’égard d’une personne ou d’un groupe à raison de leur sexe, de leur orientation sexuelle ou identité de genre, de leur handicap, de leur origine, de leur appartenance ou de leur non-appartenance à une ethnie, une race ou une religion déterminée. On trouve également la diffusion de messages violents ou pornographiques susceptibles d'être vus ou perçus par un mineur.

Le Syndicat de la magistrature souhaite que soit “revu le périmètre des contenus visés, celui-ci étant très large et pouvant quasiment englober tout sujet d’expression visant de près ou de loin la dignité humaine”. 

”Il peut apparaître que le champ infractionnel était trop large”, a reconnu Cédric O, le secrétaire d’État en charge du numérique, lors de la seconde lecture du texte à l’Assemblée nationale en janvier. À cette occasion, les députés ont d’ailleurs voté un amendement du gouvernement qui exclut du champ de la régulation les contenus relatifs à la “traite des êtres humains” et au “délit de proxénétisme”.

Jusqu'à un an de prison pour les hébergeurs

La proposition de loi prévoit que, dans le cas où la plateforme n’aurait pas retiré le contenu “manifestement illicite” 24 heures après son signalement, elle risque une sanction pénale : un an d'emprisonnement et 250 000 euros d'amende pour les personnes physiques (au lieu des 75 000 euros d’amende encourus depuis 2004) et 1,25 millions d’euros pour les personnes morales.

“La menace de sanctions pénales explicites et dissuasives en cas d'erreur (...) encouragera mécaniquement les plateformes à retirer - par excès de prudence - des contenus pourtant licites”, s’inquiète à cet égard la commission des lois du Sénat. “À l’inverse, un trop grand zèle dans la suppression de contenus et un comportement de ‘sur-censure’ n'engageront d'ailleurs pas, eux, la responsabilité pénale des plateformes." 

Quant aux personnes qui réalisent un signalement volontairement abusif risquent un an d’emprisonnementet de 15 000 euros d’amende, leur responsabilité "restera quasiment impossible à rechercher en pratique", ajoute la Commission.

Le CSA au cœur du dispositif de contrôle (et pas les juges)

La plateforme, elle, risque une amende qui peut aller jusqu’à 20 millions d’euros ou 4% de son chiffre d’affaires annuel mondial si le Conseil supérieur de l’audiovisuel (CSA) juge qu’elle n’avait mis en place les procédures et les moyens humains ou technologiques adéquats pour recevoir, examiner et traiter les notifications des utilisateurs. Cette sanction du CSA peut s’appliquer aussi bien en cas de non-retrait d’un contenu illicite dans les 24 heures, qu’en cas de “retrait excessif”.

Par ailleurs, les demandes de retrait par les administrations des contenus à caractère terroriste ou pédophile ne seraient plus confiées à la Commission nationale de l'informatique et des libertés mais à un membre du collège du CSA. 

Pour le Syndicat de la magistrature, cette proposition de loi ouvre donc la voie “à une prédominance des plateformes et du contrôle administratif [le CSA épaulé par un observatoire de la haine en ligne pour suivre et analyser l’évolution des contenus, NDLR], au détriment de l’intervention du juge judiciaire comme gardien des libertés individuelles”.

Outre son pouvoir de surveillance, de mise en demeure et de sanction des plateformes, le CSA pourra également émettre des recommandations et des lignes directrices auxquelles les plateformes devront se conformer, et publier un bilan annuel des mesures prises et des résultats obtenus par les opérateurs.

La Quadrature du net, s’en indigne également : “C’est donc, comme c’est déjà le cas pour la télévision, à l’administration qu’il reviendra de dire ce qui peut être dit ou diffusé sur Internet”. L’association de défense des droits et libertés des citoyens sur internet y voit une façon de ”’télévisionner’ l’Internet”, ce qui reviendrait à “le centraliser”.

Néanmoins, sur le plan judiciaire, la proposition de loi offre la possibilité de recourir à un tribunal et un parquet spécialisés en matière de lutte contre la haine en ligne, en cas de harcèlement sexuel en ligne, de raids numériques et de cyber-harcèlement discriminatoire, dans les cas où une plainte en ligne aura été déposée.

Le risque d’une automatisation du filtrage

Les plateformes se verraient “encouragées” par le CSA à “mettre en œuvre des outils de coopération dans la lutte contre la rediffusion massive de contenus, en particulier de vidéos ou d’images, identiques ou spécifiquement équivalents à ceux retirés”

L’Assemblée nationale a ainsi renoncé à l’obligation pour les plateformes de mettre en œuvre les moyens appropriés pour empêcher la rediffusion de tout contenu supprimé ou déréférencé. Cette obligation était critiquée par la Commission des lois du Sénat qui craignait que, pour s’y conformer, les plateformes recourent là encore à “un filtrage automatique et général de tout leur contenu”.

“Les volumes postés sur les plus grosses plateformes sont tels que les filtres de contenu sont déjà en grande partie automatisés, et les algorithmes fonctionnent très mal. En particulier, ils échouent à différencier un discours de haine contre une minorité d’un discours de lutte contre cette haine”, réagit de son côté un collectif d’organisations féministes, LGBTI et antiracistes dans Libération.

Pour limiter la rediffusion massive des contenus “illicites”, le Sénat suggère une autre stratégie : l’interopérabilité. Ce principe devrait permettre aux victimes de propos “haineux” de “se réfugier sur d’autres plateformes avec des politiques de modération différentes, tout en pouvant continuer à échanger avec les contacts qu’elles avaient noués jusqu’ici”.

La proposition de loi sera à nouveau discutée au Sénat le 26 février.

Ce contenu n'est pas ouvert aux commentaires.