Paris. Lundi 11 mars, la députée de Paris Laetitia Avia a dévoilé le contenu de son projet de loi « visant à lutter contre la haine sur Internet »1. C’est aussi elle qui, avec Gil Taïeb et Karim Amellal, avait présenté au premier Ministre un rapport pour « Renforcer la lutte contre le racisme et l’antisémitisme sur Internet » en septembre dernier. Les grandes lignes de ce document ont été repris dans les médias, puis NextINpact en a révélé la teneur exacte jeudi dernier2.

La proposition de loi s’inspire ouvertement de la loi allemande surnommée NetzGD entrée en vigueur au 1er janvier 2018 malgré les controverses qui l’entourent. Cette loi fait reposer de lourdes responsabilités sur les plateformes du moment que la présence de contenus illégaux leur a été signalées : elle a ainsi été accusée de favoriser une privatisation de la censure. Outre la référence explicite à ce document dans la partie introductive du texte, un point de convergence saute aux yeux : l’obligation pour les « opérateurs de plateformes » de retirer sous 24 heures les contenus « manifestement illégaux », et sous sept jours les contenus pour lesquelles un examen plus poussé est nécessaire.

Du côté des différences, la proposition de loi française est nettement plus stricte en matière de montant des amendes, puisque celles-ci peuvent représenter jusqu’à 4% du chiffre d’affaires total global de l’entreprise (une référence bien connue des experts du RGPD) alors qu’outre-Rhin la législation ne prévoit qu’un maximum de 50 millions d’euros. Cependant, à la différence du texte en vigueur chez nos voisins, celui qui est ici en cours d’élaboration prévoit des possibilités de recours pour ceux dont les contenus ont été retirés, ainsi que pour ceux dont les notifications ont été écartées.

Il convient cependant d’être précis par rapport au champ d’application de cette loi. D’abord, dans sa forme actuelle, il est prévu qu’elle ne s’applique qu’aux plateformes dont l’activité dépasse un certain seuil, qui sera fixé par décret : cette marge de manœuvre laissée au pouvoir exécutif permettra au gouvernement de jouer un rôle majeur dans la définition, et l’éventuelle modification, du périmètre des entreprises concernées. Ensuite, les contenus concernés sont ceux « comportant une incitation à la haine ou une injure à raison de la race, de la religion, de l’ethnie, du sexe, de l’orientation sexuelle ou du handicap ». Autrement dit, les cas d’insultes et de cyber harcèlement en ligne ne tomberont sous le coup de cette loi que dans la mesure où ils placent leur(s) victime(s) dans le cadre d’un groupe plus large de personnes, défini par les caractéristiques énumérées ci-dessus.

Par ailleurs, la proposition de loi ne prévoit pas une levée générale de l’anonymat, mais des pouvoirs renforcés pour découvrir, a posteriori, l’auteur de propos illégaux en ligne.

De par son timing, cette proposition de loi semble obéir à des considérations plus politiques qu’à une nécessité.

D’abord, bien qu’entourée de la plus grande opacité, une expérimentation est censée avoir lieu depuis le début de cette année, associant le gouvernement français et Facebook : grâce à celle-ci, des représentants des pouvoirs publics peuvent observer in situ la façon dont la plateforme au pouce levé gère les contenus de haine qui y sont publiés. Même s’il est vrai que Facebook ne sera pas la seule concernée par la proposition de loi, il semble que la France n’ait que faire des conclusions à venir de cette expérimentation, que Macron avait pourtant annoncé si fièrement à Paris en novembre.

En outre, la France joue cavalier seul vis-à-vis de ses partenaires européens. Depuis décembre 2016, il existe un Code de Conduite contre les contenus illégaux de haine en ligne, qui associe sur le mode de la co-régulation la Commission Européenne et les principales plateformes. Ce mécanisme est conçu pour inciter ces dernières à prendre des mesures concrètes contre les discours de haine. Lors du dernier rapport d’avancement, en février dernier3, la Commission avait souligné tant les progrès que les insuffisances de la mise en œuvre, agitant la perspective d’une régulation sous sa forme traditionnelle si de meilleurs résultats n’étaient pas obtenus lors des prochaines échéances.

Par ailleurs, l’UE est déjà engagée dans les négociations d’un règlement sur les contenus terroristes en ligne4. Bien qu’il s’agisse d’un domaine différent, ce projet est sujet aux mêmes critiques que la proposition de loi dont nous parlons aujourd’hui, du fait du rôle clé qui incomberait aux plateformes en matière de régulation des discours en ligne.

Loin d’attendre le résultat de ces initiatives au niveau européen, et à l’instar des récentes avancées législatives en matière d’imposition des entreprises du numérique, la France semble envoyer un message insistant : en matière numérique, elle préfère avancer seule à son rythme que plus lentement dans un cadre concerté. Un comble pour un pays dont le plus haut dirigeant a récemment diffusé à grande échelle un appel pour une renaissance européenne.

Perspectives :

  • En mai 2019, la proposition de loi sera examinée et débattue dans l’Assemblée Nationale.
  • Si le Conseil de l’Union a arrêté sa position sur le projet de règlement sur les contenus terroristes en ligne, celle du Parlement n’a pas encore été approuvée. La commission LIBE (Libertés civiles, justice et affaires intérieures), qui l’examine à titre principal depuis décembre5, devrait rendre son avis à court terme.

Sources :

Barthélémy Michalon