Bruxelles. Fin 2018, la Commission lançait son « Plan d’Action contre la Désinformation » 1, qui reposait sur plusieurs piliers. L’un d’eux – sans doute le plus important des quatre – impliquait d’associer étroitement les principales plateformes de réseaux sociaux à la poursuite de cet objectif, sur la base du « Code de Pratique contre la Désinformation » 2.

Approuvé en septembre 2018, ce document fut élaboré dans le cadre d’une démarche impliquant, outre les plateformes elles-mêmes, divers acteurs jouant un rôle en matière de diffusion d’informations, dont des associations défendant les positions des organes de presse, d’autres parlant au nom de l’industrie de la publicité, sans oublier (quelques) membres du monde académique et de la société civile.

Cependant, la quasi-totalité de la vingtaine d’engagements contenus dans ce texte repose en fait sur les épaules des géants technologiques, en l’occurrence Facebook, Twitter et Google / YouTube. Pour sa part, Microsoft a rejoint cette initiative en mai 2019.

Au-delà de l’aspect étrangement informel du document en tant que tel, qui présente l’apparence d’un draft encore éloigné du stade final de la mise en page, il est notable que ce Code est présenté comme relevant d’une logique d’autorégulation : son contenu a été entièrement négocié entre parties prenantes, et il est qualifié de façon insistante de « volontaire ».

Bien que la Commission Européenne ne fasse pas partie des signataires, c’est pourtant bien elle qui avait tracé les lignes générales de cet accord dans sa Communication émise en avril 2018 sur le sujet de la désinformation. C’est également elle qui avait organisé ces réunions et orchestré ces contacts successifs qui ont finalement débouché sur le document en question. Enfin, la partie finale du document engage les parties-prenantes à fournir des informations à la Commission au sujet des efforts consentis dans l’exécution de leurs engagements.

C’est précisément sur ces dernières dispositions du Code de Pratique que la Commission s’est appuyée pour exiger, dans son Plan d’Action de décembre 2018, que les plateformes lui remettent tous les mois un rapport de mise en oeuvre de ces fameux engagements « volontaires », et ce jusqu’aux élections européennes de mai 2019. Avec, en ligne de mire, l’éventualité que l’institution bruxelloise propose l’adoption au niveau européen une régulation en bonne et due forme « si la mise en oeuvre et les résultats du Code de Conduite se révélaient insatisfaisants ». Une menace non voilée, donc : si l’auto-régulation ne fonctionne pas, il faudra se résoudre à se tourner de nouveau vers les recettes traditionnelles.

Dans le bilan qu’elle fait des efforts de lutte contre la désinformation au cours des dernières élections, la Commission ne propose pas de grandes révélations dans le document qu’elle vient de rendre public 3 : elle constate que des tentatives de désinformation en ligne ont bel et bien existé, qu’une bonne partie d’entre elles provenaient de Russie tout en s’appuyant sur des relais locaux et que leur effet sur le processus électoral n’a sans doute pas été significatif.

Mais le rapport revêtait aussi une importance particulière d’un point de vue régulatoire : l’enjeu était aussi de savoir comment la Commission évalue la contribution des plateformes à la lutte contre la désinformation, au regard des engagements qui figurent dans le Code de Pratique.

De ce point de vue, les conclusions ne sont guères surprenantes, car elles reprennent les mêmes formules que dans d’autres contextes similaires (comme la lutte contre les discours de haine), qui donnent aussi lieu à une évaluation par la Commission du succès des dispositifs dits d’auto-régulation : elle souligne des avancées mais aussi des insuffisances, avant de clore par un coup de pression pour les inciter à persévérer dans leurs efforts.

Du côté des satisfactions, la Commission cite les progrès en matière de transparence des publicités de nature politique (et le fait qu’elles sont désormais archivées dans une base de données librement consultable), de démonétisation de contenus mensongers et de détection et mise hors d’état de nuire des comportements inauthentiques coordonnés comme ceux qui, à l’aide de comptes automatisés, accroissent artificiellement la circulation d’un message donné.

A l’inverse, d’autres attentes ne sont pas pleinement remplies : l’effectivité des mesures de transparence est mise en doute, la coopération avec les fact-checkers est jugée encore insuffisante, tout comme la coopération avec la communauté universitaire. De façon assez surprenante, la « to-do list » renvoyée aux plateformes inclut également le développement d’un indicateur de confiabilité (trustworthiness) des sources, en collaboration avec les médias… Si l’apposition d’un badge de confiance sur une source d’information est en soi sujette à caution, confier ce rôle aux plateformes numériques ne manquera pas de susciter des critiques.

Pour finir, en écho à ce que le Plan d’Action évoquait lui aussi très explicitement, la Commission recourt presque exactement aux mêmes termes pour laisse planer l’éventualité d’une régulation en bonne et due forme de l’activité des plateformes face à la désinformation, si la méthode dite d’auto-régulation ne porte pas ses fruits.

En somme, certains regretteront que les engagements des plateformes n’aient pas un caractère contraignant. D’autres au contraire pointeront que, sous couvert d’une participation volontaire à un dispositif conçu par elles-mêmes, les plateformes suivent en réalité les lignes tracées par la Commission, sous la menace explicite de l’application de textes législatifs en bonne et due forme si nécessaire. Entre ces deux visions opposées, il est possible de distinguer une façon de procéder originale, capable de s’adapter à la rapidité d’évolution et à la technicité du monde numérique.

Perspectives :

  • D’ici la fin de l’année, la Commission procèdera à une évaluation de la première année de mise en oeuvre du Code de Pratique. Il serait surprenant que les conclusions s’écartent du schéma déjà bien éprouvé décrit plus haut : des progrès réalisés, d’autres à faire, avec en arrière plan l’éventualité d’un recours à la régulation classique.
Sources
  1. Commission Européenne, Plan d’Action contre la Désinformation, décembre 2018.
  2. Commission Européenne, Code of Practice on Disinformation, septembre 2018.
  3. Commission Européenne, Report on the implementation of the Action Plan Against Disinformation, juin 2019.