Ces réseaux que nous adorons haïr

Nous adorons communiquer. Nous adorons partager. Nous adorons débattre, échanger, parfois avec vigueur. Internet a démultiplié nos capacités naturelles à le faire sous d’innombrables formes. Pour répondre à cette envie de communiquer, une myriade de services s’est développée au fil des ans. Parmi eux, figurent ce que l’on appelle les réseaux sociaux numériques, c’est-à-dire des services nous permettant d’exposer des aspects de notre personnalité, un profil de nous-mêmes, et d’être mis en relation avec tout un chacun1. À une époque, ce fut Myspace2. Aujourd’hui, une large variété de services intègre cette double dimension de médiatisation des individus et de mise en relation, que ce soit depuis Facebook, Snapchat ou Twitter, jusqu’à WT Social et Mastodon. Si ce n’est pas leur rôle principal, d’autres services permettent également de tels échanges comme Wikipédia, Google Maps, YouTube ou Jeuxvideo.com.

Peu à peu, nous nous sommes équipés de profils et d’identités diverses. Chaque jour, nous nouons plus de relations, qu’elles soient amicales ou non, par intérêt partagé, quand ce n’est pas par amour. Nous restons en contact, nous publions, nous nous suivons, nous likons, nous commentons, nous réagissons, jusqu’à n’en plus pouvoir, jusqu’à la nausée qui peut nous conduire parfois à vouloir tout arrêter. Mais, le plus souvent, nous nous plongeons avec délectation dans cette exubérance de liens sociaux.

Par le jeu des effets de réseau, ces services attirent de plus en plus de monde. Il se passe quelque chose d’intéressant dans notre sphère sociale, dans un cercle bien plus large, nos «  contacts  » s’y rendent, l’information se propage de manière virale, nous ressentons le besoin nous aussi d’y aller. Nous aussi voulons en être. Nous enrichissons nos liens sociaux traditionnels avec ces services, nous tissons de nouveaux liens. C’est là que nous apprenons souvent ce qui fait réagir notre communauté, notre quartier, notre pays. L’information fournie par les usagers eux-mêmes nous ouvre de nouveaux horizons du plus local au plus général, des horizons plus larges que ceux des médias traditionnels.

Les réseaux sociaux deviennent une structure d’échanges essentielle, la nouvelle frontière de notre espace public3. Et comme toute architecture, les réseaux sociaux deviennent normatifs. Du Baron Haussmann à Lawrence Lessig, qu’elle soit réelle ou virtuelle, qu’il s’agisse de boulevards ou de code informatique, l’architecture fait loi, code is law4. Les réseaux sociaux participent à la définition des contenus que nous échangeons. Cela saute aux yeux quand nous devons écrire en 280 caractères ou quand nos messages disparaissent presque instantanément. Nous ne nous exprimons pas de la même manière. Des formes d’art naissent de ces contraintes, mais pas seulement.

Gide disait « l’art naît de contraintes, vit de luttes et meurt de liberté »5. Les réseaux sociaux tels que nous les connaissons soulèvent des conflits entre différentes libertés. Ils tirent leur essence de la liberté d’expression, le droit d’être entendu pour nombre de personnes qui n’avaient pas la parole avant, la militante d’une association de banlieue, l’adolescent d’un territoire perdu… Ils peuvent mourir de conflits avec d’autres droits fondamentaux : comment concilier la liberté d’expression avec le droit d’être protégé contre la désinformation, le droit de ne pas être diffamé, insulté ou harcelé sur ces mêmes réseaux ?

Qu’elle soit réelle ou virtuelle, qu’il s’agisse de boulevards ou de code informatique, l’architecture fait loi, code is law.

Serge abiteboul, Jean cattan

Au-delà des paramètres qui définissent directement le contenu et la forme de nos messages, la plupart des réseaux sociaux définissent aussi ce qui est massivement lu, vu ou voué à tomber dans les oubliettes du cyberespace. Ils choisissent les contenus qu’ils vont pousser vers vous, et ce pour maximiser leurs profits. Certains diront «  C’est leur business model, idiot ! »6. Les réseaux sociaux ne sont pas tous voués au bien de l’humanité, ce n’est pas leur objectif (principal). Par essence, une entreprise recherche la profitabilité et les réseaux sociaux demeurent le plus souvent des entreprises ne dérogeant pas à la règle. Ce n’est pas un jugement, seulement un constat.

Le modèle d’affaire des réseaux sociaux est essentiellement fondé sur la publicité. Que cela soit justifié ou non, un tel modèle incite à une exploitation forte de nos données personnelles et un profilage toujours plus important7. Plus le réseau social nous connaît, plus il peut valoriser ses espaces publicitaires.

Mais, pour être mieux valorisées, les publicités doivent non seulement être ciblées, elles doivent aussi être vues. Pour que nous restions plus longtemps, les réseaux sociaux valorisent les contenus qui suscitent l’engagement des utilisateurs, ce qui nous fait réagir, nous attire et nous fait rester. En retour, nous sommes plus exposés à la publicité, aux contenus sponsorisés, aux contenus qui rémunèrent la plateforme. Notre attention est devenue un vaste marché. Comme le dit Reed Hastings, cofondateur et CEO de Netflix : « we actually compete with sleep (…) and we’re winning ! »8, version contemporaine du « temps de cerveau disponible » qui régnait fut un temps sur la télévision cathodique. Ce qui est vrai pour les services audiovisuels l’est aussi pour les réseaux sociaux : nous passons de plus en plus de temps sur nos écrans, et l’engagement se transforme en addiction9.

Comme toute personne dépendante, «  accro  », il nous en faut toujours plus. Des formats plus courts, des slogans, des phrases choc, des images qui percutent. Ce qui nous fait réagir tend souvent vers les extrêmes, du petit chaton aux propos outranciers. Et comme souvent cela ne suffit pas, nous sommes obligés de nous inventer des histoires, des ragots, des bobards, de faire émerger des complots. Nous risquerions de nous ennuyer sinon.

Heureusement, sur les réseaux sociaux, l’engagement pour des causes nobles, les vrais sentiments, l’humour, la poésie, l’art, nous sauvent de tout ça. De belles idées y circulent, des innovations intellectuelles aussi. Ils nous rappellent combien la créativité humaine est infinie. Nous adorons voir les foules se mobiliser pour de justes causes. Nous adorons découvrir de nouveaux aspects de nos quartiers. Nous restons en admiration devant la jeunesse qui, par de nouveaux moyens de communications, s’approprie des luttes que leurs aînés n’ont pas pu ou n’ont pas su saisir. Nous en profitons chaque jour et nous nous en réjouissons. En bref, nous constatons chaque jour que les réseaux sociaux peuvent être un instrument au service de notre épanouissement, si ce n’est de la libération des peuples et des individus. Car après tout, ne s’agit-il pas de mettre des humains en relation, de faire société  ?

Le risque néanmoins, si nous laissons les réseaux sociaux évoluer sans rien faire, est que leur côté obscur l’emporte, que l’on ait à payer tous un jour le prix de n’avoir su maitriser l’expression débridée de nos désirs, de nos pulsions, en abandonnant la sphère publique à un business model faisant de l’humain une marchandise.

Abusant des réseaux sociaux, les contenus toxiques sont protéiformes : propagande terroriste ou pédopornographique, messages de haine, fausses nouvelles (les fameuses fake news) et désinformation, cyberharcèlement, violation de la vie privée, etc. La société s’inquiète, exige des mesures pour les combattre. L’affaire Cambridge Analytica a été le premier révélateur de ce phénomène par lequel une décision collective majeure peut être influencée par l’usage des réseaux sociaux et tout particulièrement de la publicité politique qui peut y être faite10. Notre exposition à la haine ne cesserait quant à elle de croître, avec la crainte qu’elle se transforme en une violence physique malheureusement bien tangible.

Si nous ne voulons pas clouer les réseaux sociaux au pilori, il nous faut montrer qu’il est possible de faire autrement. Cela passe par l’éducation et l’engagement citoyen d’internautes. Certaines organisations proposent des modèles alternatifs. C’est le cas par exemple de WT Social, le réseau social centré sur l’information développé par Jimmy Wales en 2019. La proposition est de s’inspirer des modes de financement, de présentation et de modération de Wikipédia pour éviter la propagation de fausses nouvelles.

Si de telles initiatives sont bonnes à prendre, arriveront-elles à préserver dans des réseaux sociaux réinventés cette vivacité qui nous rend accros  ? Peut-être, mais il est peu vraisemblable qu’elles arriveront seules dans un futur envisageable à se substituer aux grandes plateformes dont certaines ont déjà des milliards d’utilisateurs et savent parfaitement jouer de l’effet de réseau et de ressources financières gigantesques. Il y a fort à parier qu’il faille s’en remettre à une forme d’intervention étatique pour obliger les géants que nous avons nourri de notre adhésion à œuvrer pour le bien collectif. Même si le marché venait à fournir des solutions en ce sens, la propagation de fausses informations ou la diffusion de la haine ne sont pas des questions que l’on peut renvoyer uniquement à la sagesse de la foule et à une relation entre l’offre et la demande.

Il y a fort à parier qu’il faille s’en remettre à une forme d’intervention étatique pour obliger les géants que nous avons nourri de notre adhésion à œuvrer pour le bien collectif.

Serge abiteboul, jean cattan

Dans notre système de démocratie représentative, les institutions dotées d’une légitimité démocratique ont voix au chapitre. Mais la tâche est ardue entre garantir la liberté de chacun de pouvoir s’exprimer et dans le même temps protéger des dérives des réseaux sociaux. La marge est étroite, par exemple, entre contrecarrer la désinformation et instituer une information étatique. Les institutions doivent intervenir dans un cadre ouvert sous le regard et le contrôle d’une société responsable. Afin d’atteindre les équilibres nécessaires dans chaque sphère, régionale, nationale, culturelle et linguistique, il est primordial d’assurer la participation de l’ensemble des communautés intéressées, chercheurs, société civile, utilisateurs, représentants de l’État. Tous doivent pouvoir participer à l’identification des problèmes rencontrés par les plateformes, à la définition des solutions proposées, et au contrôle des actions entreprises.

Face à la propagation annoncée des mensonges, de la marchandisation et de la haine, dire que rien n’est fait est faux. La société et les politiques se sont emparés du sujet. Une urgence s’est installée comme si ces sujets, la désinformation, le harcèlement, etc., étaient nouveaux. Des propositions sont faites, des décisions prises du côté des réseaux sociaux eux-mêmes comme des autorités publiques. Les États réagissent, les parlements légifèrent, parfois sous la pression de l’actualité, des émotions. Cela se fait dans le désordre, sans vision d’ensemble, en essayant de trouver des parades souvent séparément aux différentes facettes d’un même problème. De fait les réponses demeurent insatisfaisantes.

Dans ce désordre ambiant, des lignes forces peuvent toutefois être identifiées. Pour décrire la situation lors de l’édition 2018 de l’Internet Governance Forum, sommet onusien qui se tenait cette année-là à Paris, Emmanuel Macron a dessiné trois voies, correspondant chacune à un modèle de régulation des réseaux sociaux :

  • La première voie est celle de la régulation par les acteurs du marché eux-mêmes, l’autorégulation, avec une intervention a posteriori des autorités étatiques. Si c’est la voie qui a permis la créativité du web, qui lui a permis de s’épanouir, elle a montré ses limites en termes de régulation des réseaux sociaux.
  • La deuxième voie est celle du contrôle direct des contenus par l’État et de l’imposition d’obligation de retraits des contenus nocifs. C’est la voie choisie par diverses initiatives législatives, y compris en France. En plus de servir de caution pour des régimes non démocratiques, elle s’est jusqu’ici montrée peu efficace.
  • La troisième voie est celle prônée pour l’Europe par Emmanuel Macron à l’Internet Governance Forum11, une voie encore à élaborer : «  Il nous faut donc construire par la régulation cette voie nouvelle où les États, avec les acteurs de l’Internet, les sociétés civiles, l’ensemble des acteurs, arrivent à bien réguler.  » Concrètement, cette voie que nous voulons ouverte et démocratique est celle de la régulation supervision.

Cette troisième voie est plus complexe, mais potentiellement plus efficace et plus respectueuse des droits de chacun. Nous croyons qu’elle pourra associer de nombreuses initiatives émergeant de la société dans son ensemble, en susciter de nouvelles. Nous croyons qu’elle peut être dessinée en Europe et servir de modèle à l’échelle mondiale.

Cette voie est plus complexe, mais potentiellement plus efficace et plus respectueuse des droits de chacun. Nous croyons qu’elle peut être dessinée en Europe et servir de modèle à l’échelle mondiale.

serge abiteboul, jean cattan

La 1ère voie  : l’autorégulation et une intervention a posteriori

Qu’en est-il des contenus publiés qui peuvent avoir un effet nocif  ? Tant aux États-Unis qu’en Europe, ils sont régis par un régime de responsabilité limitée des réseaux sociaux. C’est ce régime qui a permis les succès de services dont le contenu est alimenté par les utilisateurs. Pour ses opposants, c’est un régime lacunaire auquel on doit l’apparition des pires dérives rencontrées sur le web.

Aux États-Unis, c’est en 1996 qu’un tel régime a été institué par la Section 230 du Communications Decency Act : « No provider or user of an interactive computer service shall be treated as the publisher or speaker of any information provided by another information content provider  »12. Selon les motifs qui la précèdent, cette mesure est vouée à préserver le foisonnement d’internet, la liberté du marché et à renforcer le contrôle des utilisateurs sur leurs activités en ligne, y compris en responsabilisant les parents dans la protection de leurs enfants face à des contenus pouvant leur porter atteinte. La déresponsabilisation des fournisseurs de services allait de pair avec la responsabilisation des adultes.

Si l’on considère que l’essentiel des réseaux sociaux que nous utilisons sont établis aux États-Unis, avoir à l’esprit ce régime de responsabilité limitée est important en ce qu’il renseigne sur la culture juridique dont ils sont empreints  : le principe est que les réseaux sociaux ne sont pas responsables des contenus propagés sur leur plateforme s’ils n’ont pas de contrôle éditorial dessus.

En Europe, c’est en 2001 que fut adoptée la directive eCommerce 2000/31 et son article 14. Cet article, venant s’ajouter au régime américain, en limite, très relativement, la portée. Dans sa transposition en France, l’article 6 de la loi pour la confiance dans l’économie numérique du 21 juin 2004 tel qu’interprété par le Conseil constitutionnel établit les premières briques du droit de la responsabilité des « hébergeurs »13. L’hébergeur, entendre ici le réseau social, est responsable s’il a effectivement connaissance du caractère manifestement illicite du contenu en cause ou s’il n’a pas agi promptement pour retirer ces données ou en rendre l’accès impossible lorsqu’il en a eu connaissance. C’est-à-dire que concrètement et très sommairement, un réseau social, où qu’il soit établi dans le monde, est obligé de retirer un contenu manifestement illicite dont il a eu connaissance soit parce qu’un tel contenu lui a été signalé soit parce qu’il a été jugé comme tel par un juge.

On notera que ces textes états-uniens et européens ont été élaborés avant les débuts des réseaux sociaux tels que nous les connaissons  ; par exemple, Facebook nait en 2004, YouTube en 2005, Twitter en 2006. Des tensions naissent des différences d’appréciation du principe de liberté d’expression de part et d’autre de l’Atlantique  : lecture quasi-religieuse outre-Atlantique du 1er amendement de la Constitution américaine, interprétation plus souple en Europe de l’article 10 de la Convention européenne des droits de l’homme, auquel peuvent être apportées des limites «  nécessaires dans une société démocratique  »14.

Il n’en demeure pas moins qu’en Europe, et notamment en France, l’intervention du juge demeure importante. La loi pour la confiance dans l’économie numérique a ouvert la voie à toute une série de référés, par lesquels un juge peut enjoindre en urgence aux plateformes de retirer des contenus. Si les délais sont souvent considérés comme trop longs par les plaignants, les procédures et la jurisprudence existent.

Dans ce cadre, la première question qui se pose est de savoir ce qu’est un contenu illicite. Entre les contenus manifestement illégaux et les contenus licites, toute une gamme de contenus « gris » doit faire l’objet d’une appréciation par la plateforme. La qualification de ces contenus n’est pas simple pour un modérateur de réseau social, et peut même diviser des magistrats15.

Pour encadrer les pratiques, un réseau social se livre à l’élaboration d’un code définissant à travers des «  standards communautaires  » les contenus qu’il est prêt ou non à accepter. Cela n’est d’ailleurs pas sans poser la question de savoir quelle est sa légitimité ou encore son autorité, comme acteur privé, pour définir ce qui peut ou non être accepté sur des services, certes privés, mais qui se sont mus en autant d’espaces publics. Le réseau social traite ensuite les contenus pour décider s’ils correspondent à ses standards communautaires. Pour ce faire, différents moyens sont mis en œuvre.

Des moyens humains extrêmement variables selon les plateformes sont affectés à la modération des contenus rapportés comme potentiellement nocifs par des utilisateurs de la plateforme, ou détectés automatiquement comme tels.

Entre autres questions, la modération humaine de masse sur les réseaux sociaux soulève un problème qui est celui du traitement des modérateurs eux-mêmes. De plus en plus d’études, reportages, articles, mettent en évidence la souffrance des modérateurs devant visionner des contenus violents ou pornographiques à longueur de temps, passant des heures dans les poubelles du web. Des personnes avec peu de qualifications professionnelles, souvent dans des pays lointains, ont à répondre à des questions parfois complexes juridiquement, pouvant également faire appel à des connaissances pointues de la culture si ce n’est l’actualité la plus vive du pays où les faits se déroulent.

De fait, les humains se montrent assez médiocres dans la notification de contenus illégaux ou contrevenant aux standards du réseau. Sous le coup des émotions, leurs notifications sont largement erronées. Les modérateurs humains, malgré leur manque de connaissances, de compétence, font mieux parce que formés à cela et moins directement impliqués. Mais eux aussi ont leurs biais culturels, personnels. Leur tâche n’est pas simple en particulier pour les messages de haine, et peut-être encore plus pour les fausses nouvelles.

Une alternative est de déléguer à des algorithmes ce travail de modération difficile à supporter par des humains. Comment un logiciel peut-il détecter des contenus nocifs  ? Typiquement, on utilise des techniques d’apprentissage automatique (machine learning). Le logiciel est d’abord entrainé sur un corpus de contenus annotés par des humains qui les ont qualifiés comme acceptable, message de haine, violence, etc. Mis en présence d’un nouveau contenu, le logiciel va chercher à déterminer la qualification des messages auxquels ce contenu ressemble le plus.

Les algorithmes participent déjà beaucoup à la détection de contenus illicites, en particulier pour ce qui est du terrorisme et de la pédopornographie. Ils seraient déjà «  moins mauvais  » que les modérateurs humains, même s’ils restent largement perfectibles  : le problème est complexe avec l’ambiguïté du langages, l’ironie… et il leur manque surtout le contexte. Pour cela, en dépit des progrès réalisés dans cette direction, l’ultime décision, de retirer ou pas un contenu, est réalisée par un humain (à des exceptions près comme certains contenus terroristes ou pédopornographiques). Un jour se posera la question de savoir si nous acceptons de déléguer de telles décisions à des logiciels ? Cette question méritera d’être débattue.

Un jour se posera la question de savoir si nous acceptons de déléguer de telles décisions à des logiciels ? Cette question méritera d’être débattue.

serge abiteboul, jean cattan

Les réseaux sociaux mettent donc des ressources humaines et techniques au service de la modération. Hormis les difficultés pratiques rencontrées, leur choix d’internaliser complètement les problèmes posés par les réseaux sociaux questionne sur le plan des principes  :

  1. Est-ce que la relative absence du recours au juge dans leurs procédures est acceptable  ?
  2. Est-ce qu’il est souhaitable qu’ils décident seuls de leur politique de retrait de contenus  ?
  3. Les efforts variant considérablement d’un réseau social à l’autre, à partir de quand un réseau social peut-il être considéré suffisamment diligent pour identifier et retirer un contenu  ? Que faut-il mesurer  ? A quelle aune juger  ?

Comment, en restant dans les jalons du droit européen, répondre à ces questions  ?

Dans l’attente d’un véritable débat de fond sur ces questions, les plateformes demeurent dans un environnement de droit souple et disposent d’une très large marge d’autorégulation. C’est ce qui leur permet de s’arroger le vocabulaire de l’État pour mettre en place par exemple des « cours suprêmes » qui, à l’instar de celle envisagée par Facebook16, permettrait de contester les choix faits par la plateforme quant au retrait ou non de contenus. L’espace public s’est tellement déporté sur les plateformes et l’espace laissé vacant par l’État est si grand que les plateformes peuvent se permettre de tels comportements, à l’esprit régalien.

Que l’on soit défenseurs de la liberté d’expression ou représentants de l’ordre public, cela ne fonctionne pas. Le régime d’autorégulation laisse bien trop d’espace aux plateformes. Selon leur bon vouloir, selon leurs moyens, elles seront soit trop, soit insuffisamment diligentes17. Mais plus encore, quelle est la légitimité de ces plateformes privées de résoudre seules cette variété de problèmes avec la seule intervention a posteriori des autorités agissant au nom du peuple ? Quelle est leur légitimité de décider ce qui peut, ou pas, être dit dans l’espace public, de définir cet espace public ?

In fine, il s’agit de définir un point d’équilibre et de résoudre des questions dont l’importance sociétale est majeure  : des questions mémorielles, de rapport au corps, aux discriminations, au rapport entre les citoyens et leurs représentants etc. Ce ne peut être aux plateformes seules de définir ce point d’équilibre. C’est à elles de participer à sa mise en œuvre oui, mais c’est à la collectivité de le définir. C’est pourquoi, à un moment donné, une intervention de l’État et de la société est requise. La question est de savoir comment, et à quelle fin  ?

L’espace public s’est tellement déporté sur les plateformes et l’espace laissé vacant par l’État est si grand que les plateformes peuvent se permettre de tels comportements, à l’esprit régalien.

serge abiteboul, jean cattan

La 2e voie  : le contrôle direct des contenus par l’État

En complément du régime établi au niveau européen, différents niveaux de réponse ont été avancés dans les États membres pour répondre aux problèmes posés par la publication et la propagation des contenus, qu’ils soient manifestement illégaux ou qu’ils se situent dans une zone grise.

Un premier cas concerne la lutte contre la désinformation. Sommairement, la loi française du 22 décembre 2018 relative à la manipulation de l’information a ouvert la possibilité, en période électorale, de saisir le juge des référés pour qu’il se prononce en quarante-huit heures sur le retrait de contenus «  allégations ou imputations inexactes ou trompeuses d’un fait de nature à altérer la sincérité du scrutin à venir sont diffusées de manière délibérée, artificielle ou automatisée et massive  ». A côté de quoi, les plateformes doivent rendre des comptes sur les mesures adoptées pour endiguer la propagation des fausses nouvelles ou encore fournir une information transparente sur les rémunérations «  reçues en contrepartie de la promotion de […] contenus d’information [se rattachant à un débat d’intérêt général]  ».

Un autre cas concerne le traitement des propos haineux. L’initiative nous vient d’Allemagne. Depuis 2018, la loi dite NetzDG impose notamment aux réseaux sociaux de retirer en vingt-quatre heures les contenus dont le caractère haineux est manifeste, renvoyant de fait à la plateforme d’apprécier ce qu’il en est. La loi prévoit une sanction jusqu’à 50 millions d’euros en cas de non-respect de cette obligation par la plateforme. Aux dernières nouvelles, le gouvernement allemand souhaitait renforcer plus encore son dispositif.

Il est difficile de dire à l’heure actuelle ce que sera le régime de la régulation des contenus haineux en France18. La proposition de loi de lutte contre la haine sur internet déposée par Laetitia Avia en mars 2019 a fait naître des réactions vives. En l’état du texte et à gros traits, il impose une obligation de retrait en 24 heures des contenus illicites à de très nombreux titres. Dans la loi votée par l’Assemblée en deuxième lecture, un délai d’une heure a aussi été institué pour les contenus notifiés par les autorités comme de nature terroriste à n’importe quelle plateforme. Le montant des sanctions pourrait atteindre les 4 % du chiffre d’affaires. Une mesure de blocage visant les contenus miroirs est aussi prévue.

Parmi les critiques les plus retentissantes figurent celles de la Commission européenne consignées dans un avis du 22 novembre 2019. Selon la Commission, les mesures restreignent de manière disproportionnée la libre prestation de services  ; la portée du but poursuivi, la dignité humaine, sur l’identification des contenus visés reste imprécise  ; les mesures proposées ne sont pas ciblées et portent sur un trop large champ de plateformes en ligne  ; les conditions de notification ne sont pas assez précises  ; il existe un risque de suppression excessive des contenus compte tenu du délai imparti et du montant de la sanction  ; il n’y a pas de garantie contre la surveillance généralisée des contenus par les plateformes  ; et pour finir la France ne devrait pas faire cavalier seul alors que la Commission pourrait légiférer sur la question dans le cadre du Digital Services Act attendu pour 2020. Étant précisé que si l’actuelle Commission a annoncé vouloir agir, aucun plan précis n’a été publié jusqu’à présent.

Plus généralement et quand bien même nous entendons pleinement le besoin de protection du public, il est possible de se demander si des initiatives législatives comme celles poussées en France et en Allemagne ne prennent pas le problème par le mauvais bout.

Paradoxalement, en haussant le montant des sanctions et en renforçant les mécanismes de répression dont les réseaux sociaux pourraient faire l’objet, les gouvernements risquent d’accentuer le pouvoir de ces plateformes. Si aucun contrôle n’est exercé sur les modalités de propagation et de retrait des contenus en dehors de la question de savoir si un contenu est demeuré une ou vingt-quatre heures sur la plateforme, alors l’État restera aveugle aux choix opérés par la plateforme, tant dans sa façon de mettre en avant certains contenus que dans sa politique de retrait. D’autant que les petites plateformes qui n’ont pas les moyens de mettre en œuvre un dispositif de suppression des contenus compatible avec la loi sont condamnées à dépendre complètement des grandes plateformes pour la modération, limiter considé­rablement la parole des internautes, ou à être sanctionnées.

Paradoxalement, en haussant le montant des sanctions et en renforçant les mécanismes de répression, les gouvernements risquent d’accentuer le pouvoir de ces plateformes.

serge abiteboul, jean cattan

Pour souligner les difficultés rencontrées, mention doit être faite du cas où, un contenu notifié par le juge et retiré, réapparaît ailleurs, sous la même forme ou une forme légèrement altérée. Ce problème a trouvé une première réponse dans un arrêt du 3 octobre 2019 de la Cour de justice de l’Union européenne (aff. C-18/18) dans un cas de diffamation sur Facebook. Il ressort de cet arrêt qu’une juridiction est en droit d’enjoindre à un réseau social comme Facebook de retirer des informations identiques à celles déjà retirées mais aussi des informations jugées «  équivalentes  ». Un contenu est qualifié d’équivalent par la Cour s’il demeure «  en substance, inchangé par rapport à celui ayant donné lieu au constat d’illicéité et comportant les éléments spécifiés dans l’injonction et que les différences dans la formulation de ce contenu équivalent par rapport à celle caractérisant l’information déclarée illicite précédemment ne sont pas de nature à contraindre l’hébergeur à procéder à une appréciation autonome de ce contenu  ».

La situation du contenu jugé illicite, après une procédure potentiellement longue, réapparaissant quasi instantanément ailleurs était clairement problématique. Néanmoins, cette injonction de retrait pouvant se faire «  au niveau mondial, dans le cadre du droit international pertinent  », la marge de manœuvre et l’impact de la décision sur les réseaux sociaux s’avèrent potentiellement considérables. Tous les contenus sont-ils tenus d’être confrontés aux contenus retirés pour déterminer s’ils sont équivalents  ? Qui peut juger de cette équivalence  ?

Aussi, en adoptant des règles particulières, les différents États européens introduisent des divergences légales au préjudice de la cohérence du marché intérieur. Afin d’homogénéiser le tout et avant même la loi NetzDG, l’Union européenne avait adopté en 2016 un code de conduite et en 2018 une série de recommandations à destination des plateformes19. Ces recommandations définissent certaines modalités de la notification de contenus illicites, dans quelle mesure les hébergeurs peuvent prendre des mesures proactives ou user de modes de détection automatisés, quelles sont les voies de recours ouvertes aux éditeurs de contenus, comment traiter le cas particulier des contenus terroristes, etc. Mais l’ensemble reste très général et peu contraignant : les États membres doivent seulement en tenir dûment compte.

En confiant à une autorité administrative le soin d’apprécier la diligence d’une plateforme dans le retrait de contenus, l’État met enfin à l’écart tout le reste des institutions, à commencer par la justice et la société, de l’appréciation des propos qui peuvent être tenus dans un espace public. In fine, l’administration se trouve dans un rôle de contrôle direct des contenus par la sanction de l’absence de retrait et nos démocraties promeuvent ainsi (s’il était nécessaire) un modèle qui ne peut que satisfaire des pays bien moins démocratiques.

Les phénomènes auxquels nous faisons face sont effroyablement complexes. Ils jouent sur notre psychologie, nos dynamiques individuelles et collectives dans les réseaux sociaux numériques mais aussi dans la vie réelle. Nous devons ouvrir au maximum la régulation des réseaux sociaux sur la société elle-même. La supervision des réseaux sociaux peut nous ouvrir vers cette alternative, non pas tant en ce qu’elle donnera des missions particulières à une autorité administrative mais en ce qu’elle permettra à la société de s’emparer du problème pour apporter des solutions humaines et réelles.

In fine, l’administration se trouve dans un rôle de contrôle direct des contenus.

serge abiteboul, jean cattan

La 3e voie  : la régulation supervision agile

Lors de son discours à l’Internet Governance Forum en novembre 2018 où il annonçait la nécessité de s’inscrire dans une troisième voie, Emmanuel Macron annonçait aussi un partenariat entre l’État français et Facebook dont la vocation était précisément d’alimenter la réflexion sur cette troisième voie.

Pendant six mois, dix membres de l’administration française et trois rapporteurs ont eu accès aux locaux et au personnel de Facebook pour observer, échanger et questionner les modalités de modération des contenus haineux par le réseau social. Au sein de cette mission, se sont côtoyés des juges, des experts de l’informatique, des télécoms, de la régulation, des représentants des forces de l’ordre en charge de la cybercriminalité ou encore des personnes chargées de la lutte contre le racisme et les discriminations. La question qui leur était posée était la régulation des messages de haine sur Facebook, en France. Le but étant de considérer des solutions qui puissent s’étendre (I) à d’autres plateformes, (II) à d’autres nature de contenus comme les fausses nouvelles, et (III) à un cadre européen.

Au cours de cette mission, Facebook a ainsi permis à des observateurs de l’État français d’étudier le fonctionnement de sa modération, et notamment, de visiter certains de ses centres de modération en Europe. Du fait de la limitation dans le temps, au cours des trois mois d’observation in situ, les membres du groupe n’ont pas eu accès au code informatique du réseau social. Ils ont par contre eu l’occasion de se faire exposer les grandes orientations de ce code. S’ils ont pu s’entretenir avec des ingénieurs et des modérateurs de la plateforme, cela s’est fait en présence de responsables de l’entreprise. Si les discussions étaient directes et si les sujets controversés n’étaient pas évités, les membres du groupe ont été exposé à la réalité que voulait leur présenter Facebook qui n’est bien sûr qu’une part de la réalité.

De cette mission, il est sorti un rapport faisant état de plusieurs éléments de constats et des propositions20.

Le rapport indique tout d’abord que l’entreprise Facebook est soucieuse de s’attaquer sérieusement aux problèmes rencontrés par les réseaux sociaux, et qu’elle investit dans cette direction des moyens humains et techniques importants. Cela est bien sûr à contraster avec les efforts plus réduits d’autres plateformes qui n’ont ni les moyens, ni peut-être l’envie de confronter ces vrais problèmes. Le rapport constate également que, même avec de la bonne volonté et des moyens, le réseau social est à la peine pour résoudre les problèmes posés à la société par ses services.

Un constat crucial est que les réseaux sociaux jouent un rôle d’«  éditorialisation de fait  ». En structurant les contenus publiés par leurs utilisateurs, en choisissant lesquels «  pousser  », ils sortent de la position de simple hébergeur d’information. Des algorithmes définis par les concepteurs du réseau social accélèrent la propagation de certains contenus les mettent en avant et les rendent visibles à un nombre massif de personnes21. L’exposition du public à des contenus problématiques trouve son origine dans ces choix. La non-exposition (une moindre exposition) doit donc également résulter de choix éditoriaux du réseau social. Ce constat est le point de départ de toute démarche de régulation des réseaux sociaux se voulant efficace.

Un constat crucial est que les réseaux sociaux jouent un rôle d’« éditorialisation de fait ».

Serge abiteboul, jean cattan

En conséquence de quoi, les auteurs du rapport proposent que le réseau social «  internalise  » les objectifs qui lui sont assignés par les pouvoirs publics dans la lutte contre, par exemple, les contenus haineux. L’angle adopté est en rupture avec celui adopté par le législateur jusque-là. Il s’agirait non pas de décider ce qui serait supprimé, mais de superviser les moyens mis en œuvre pour s’assurer que les réseaux sociaux mettent bien en place les moyens nécessaires à la non-propagation des contenus haineux selon des critères qui ne seraient pas purement internes au réseau social.

Ces objectifs et critères dépendent par nature des cultures, langues et sujets de société touchant chaque État et doivent tenir dument compte de la diversité des États et peuples européens. La mise en œuvre de la régulation ne peut donc se faire efficacement qu’à un niveau national. Pour cela, le rapport prône de substituer la logique du pays de «  destination  » (le pays de résidence de la victime) à celle du pays d’«  installation  » de la plateforme (souvent l’Irlande). Cela dit, selon ce modèle, les régulateurs doivent se coordonner à travers un régulateur européen qui aura un poids suffisant pour dialoguer en position de force avec les grands réseaux sociaux, et pourra définir les règles du jeu et éviter des excès de régulateurs nationaux sous la pression d’évènements nationaux.

La régulation est ensuite bâtie autour de la responsabilisation des réseaux sociaux qui sont tenus à un «  devoir de diligence  » vis-à-vis de leurs utilisateurs  : par ce biais «  les réseaux sociaux s’engageraient à assumer une responsabilité vis-à-vis de leurs utilisateurs concernant des abus d’autres membres et des tentatives de manipulation de la plateforme par des tiers.  »

Un aspect important du rapport est que toutes les plateformes ne sont pas soumises au même régime. Seules les plus importantes, les «  plateformes systémiques  » sont soumises à une telle régulation ex ante, pour éviter que la régulation ne limite l’émergence de nouvelles entreprises innovantes. Comme proposé par le rapport, il pourrait être imaginé que soient considérées comme telles les plateformes dont le nombre d’utilisateurs atteint les 10-20 % de la population d’un État membre.

Les plateformes de tailles moyennes ne sont pas a priori concernées. Si l’une d’entre elles se révélait poser des problèmes particuliers, avoir des effets particulièrement négatifs, elle pourrait être promue dans la cour des grands et tomber sous le coup du régulateur. Il faut insister sur le fait que les petites plateformes et les plateformes de taille moyenne non soumises à un tel régime ne sont pas exonérées de toute modération  : elles restent évidemment tenues d’appliquer les lois.

Au niveau national, le régulateur doit quant à lui disposer des moyens d’évaluer les résultats des moyens mis en œuvre par les réseaux sociaux qu’il régule. Pour cela, les réseaux sociaux sont soumis à une très grande transparence. Cette transparence est un élément essentiel car elle seule permet une évaluation sérieuse et significative du travail de modération. A ce titre, les plateformes doivent par exemple fournir des informations sur leurs modalités de modération, leurs statistiques liées à la modération dont les faux positifs et faux négatifs – contenus injustement retirés ou autorisés à tort. La transparence concerne aussi les fonctions d’ordonnancement des contenus  : quels sont les contenus qui sont poussés, pourquoi, avec ou sans rémunération  ?

Il s’agirait non pas de décider ce qui serait supprimé, mais de superviser les moyens mis en œuvre, selon des critères qui ne seraient pas purement internes au réseau social.

serge abiteboul, jean cattan

Les plateformes doivent aussi faciliter les signalements des contenus problématiques. Les internautes impliqués par ces contenus, qu’ils les aient publiés ou signalés, sont notifiés des résultats des procédures, et ont le moyen de faire appel des décisions.

En somme, le régulateur national «  agile  » s’intéresse aux dynamiques globales sans se focaliser sur les cas particuliers qui en creux demeurent traités par voie judiciaire. Le focus est déplacé d’une obligation de résultat à une obligation de moyens, même si, en dernier ressort, l’obligation de résultat persiste dans le cadre de la loi. Pour assurer le respect des objectifs publics fixés aux réseaux sociaux, le régulateur peut leur infliger des amendes lourdes s’ils ne mettent pas en place les obligations de moyen qui leur sont imposées.

Le défi le plus sérieux auquel toute modération est confrontée est son acceptation par la société  : qu’elle n’en fasse pas assez, elle est suppôt de Satan, qu’elle en fasse trop, elle est censure. C’est l’écueil sur lequel se sont échouées, à notre avis, l’autorégulation et la modération directe de l’État. Une régulation supervision qui consisterait en un tête-à-tête entre l’État et le réseau social ne serait pas à l’abri d’un rejet de la société. Le rapport propose que les réseaux sociaux entrent dans un dialogue politique informé avec toutes les parties prenantes  : le régulateur bien sûr, mais aussi le gouvernement et ses services, le législateur, la justice et la société civile (en particulier les associations et les laboratoires de recherche). Tous participent à la définition des objectifs, à l’évaluation, au suivi des recours, à la construction de bases de données d’apprentissage.

Le régulateur national en charge de la supervision des réseaux sociaux a pour mission d’assurer cette ouverture sur l’extérieur, d’organiser les débats autour de la définition des objectifs, et de manière générale d’impliquer l’ensemble de la société dans le processus de supervision. Il joue un rôle central dans la mise en partage des informations qui décrivent les services des réseaux sociaux, notamment de celles qui expliquent leurs choix algorithmiques. Enfin, à partir des objectifs fixés par le pouvoir politique, le régulateur est chargé de la résolution de problèmes généraux comme particuliers, et du règlement diligent des différends.

Tout l’édifice repose sur un équilibre délicat. Les juges sont les seuls à pouvoir décider de la légalité ou pas d’un contenu. Le régulateur supervise le fonctionnement des plateformes systémiques. Le système tire son efficacité de la complémentarité de leurs rôles.

Le régulateur national « agile » s’intéresse aux dynamiques globales sans se focaliser sur les cas particuliers qui en creux demeurent traités par voie judiciaire.

serge abiteboul, jean cattan

Conclusion  : La supervision, porte ouverte vers la société

La société a pris conscience des problèmes posés par les réseaux sociaux. Cela a conduit les réseaux sociaux à agir pour essayer de «  se pacifier  », mais en restant dans le cadre de la 1ère voie. Ces problèmes ont aussi pris place dans les agendas politiques. Des mesures tenant de la 2ème voie, comme la loi NetzDG, ont contribué à faire réaliser aux plateformes systémiques que leur business ne pouvait se perpétuer sans changements profonds.

L’appétence des internautes pour ces réseaux montre bien qu’ils méritent d’être sauvegardés. Dans cet article, nous avons insisté sur la régulation supervision comme moyen d’adresser le problème sans nuire aux apports essentiels des réseaux sociaux pour la société, pour permettre à chacun de s’exprimer, de s’informer, d’échanger avec les autres, en bref la 3ème voie. Mais, ce n’est qu’une facette de la question.

L’éducation. Il nous faut aussi apprendre à utiliser les réseaux sociaux, à bien nous y comporter, à apprendre à respecter l’autre. Cela place l’éducation au cœur du dispositif. Aujourd’hui, l’article L. 312-15 du Code de l’éducation dispose par exemple que «  l’enseignement moral et civique vise notamment à amener les élèves à devenir des citoyens responsables et libres, à se forger un sens critique et à adopter un comportement réfléchi, y compris dans leur usage de l’internet et des services de communication au public en ligne.  » Le regard critique peut être développé, par exemple, à travers un encouragement à l’édition et la modération de contenus en ligne de manière communautaire, comme sur Wikipédia par exemple. Les réseaux sociaux sont les fruits de révolutions scientifiques et techniques. Un tel enseignement doit donc aussi tenir compte de cette dimension. En particulier, une éducation à l’informatique est indispensable pour comprendre le fonctionnement de ces réseaux. Si nous voulons être maîtres de notre environnement, nous devons comprendre de quoi il est fait. Cette éducation à la pensée critique et à la pensée algorithmique à l’heure des réseaux sociaux ne peut se limiter à un public jeune. Elle doit concerner l’ensemble des tranches d’âge. Nous sommes tous concernés  !

Les données et les algorithmes. Les algorithmes de détection de contenus à écarter s’appuient sur des corpus de données annotées. Avec ces données, l’algorithme «  apprend  » à séparer le bon grain de l’ivraie. Ces corpus participent à définir ce qui relève de l’information ou de la désinformation, d’un message de haine ou juste un peu caustique, etc. Ils doivent donc être mis au service de la société au-delà des seules grandes plateformes qui ont les moyens de les construire. Les petites entreprises doivent y avoir accès, au risque sinon du renforcement des oligopoles. Cela milite pour que ces corpus soient considérés un bien commun, des «  données d’intérêt général  ». Évidemment, le partage de données doit être réalisé dans le respect de la protection de la vie privée et du secret des affaires, éventuellement après anonymisation et/ou consolidation. Le monde de la recherche et la société civile ont toute leur place dans la constitution de ces corpus qui doivent être réalisés dans un dialogue permanent entre toutes les parties concernées. Au-delà de la question des données, les chercheurs doivent être encouragés à explorer de nouvelles pistes pour détecter algorithmiquement les contenus nocifs. Par exemple, des travaux sur le cyberharcèlement ont montré que ces situations pouvaient être décelées parfois plus efficacement en observant les graphes propres aux attaques (des grappes allant vers une personne) qu’en se fondant sur l’analyse des propos proférés22.

L’engagement citoyen. Des extrémismes violents de toutes natures ont investi les réseaux sociaux. Des organisations ont choisi de les combattre sur ce même terrain. C’est le travail réalisé par Moonshot CVE qui, à partir des données issues des réseaux sociaux, parvient à établir une analyse démographique et géographique de ces publics23. En identifiant que dans telle région, tel public est plus à même de proférer des propos haineux en ligne, l’action sociale devient plus aisée. Aux États-Unis, avec l’Anti-Defamation League et GenNext Foundation, Moonshot CVE a amorcé un programme appelé Redirect method24, pour lutter contre la propagande de l’État islamique et des White supremacists. Les personnes faisant des recherches spécifiques dénotant une de ces deux tendances sont réorientées à partir de Google Ads ou de vidéos Youtube vers des organisations et des contenus permettant de déconstruire le discours de propagande. Car, comme le remarquent les associations, une fois le contenu retiré, la personne vulnérable qui cherchera un tel contenu sera toujours laissée dans sa situation. La mettre en rapport avec certaines personnes ou contenus peut l’amener à se transformer.

Dans de telles approches, l’engagement dépasse le seul réseau social pour impliquer des organisations tierces. Les étapes et savoirs requis sont bien trop nombreux pour être internalisés par un réseau social. Ces tâches doivent être prises en charge par des organisations spécialisées, des acteurs de terrain comme Life After Hate, une organisation d’anciens semeurs de haine au service de la lutte contre la haine25.

La supervision s’appuie sur la transparence, et donc sur la compréhension du fonctionnement des réseaux sociaux.

serge abiteboul, jean cattan

Le régulateur réseau social. La supervision s’appuie sur la transparence, et donc sur la compréhension du fonctionnement des réseaux sociaux. Cela rend possible une participation forte de l’ensemble de la société qui peut alors influencer l’acteur économique ouvrant la porte à une «  régulation par la société  » (Paula Forteza)26. La supervision devient non seulement le fait d’une autorité, mais de l’ensemble de la société, laquelle peut se mettre en action pour déployer les remèdes les plus appropriés. Un rôle du régulateur est bien de mobiliser et responsabiliser l’ensemble de la société. Pour ce faire, le régulateur doit être lieu de dialogues entre les services du gouvernement et ses services, la justice, les chercheurs de toutes disciplines, les associations et les internautes.

Pour transformer les réseaux sociaux, le régulateur doit s’adapter à son objet et s’appuyer sur les ressorts des réseaux sociaux pour enfin se faire lui-même réseau social.

Sources
  1. Sur la sociologie, l’histoire et la typologie des réseaux sociaux, voir notamment les travaux de Pierre Mercklé, dont La sociologie des réseaux sociaux (La Découverte, 2016) et La découverte des réseaux sociaux. À propos de John A. Barnes et d’une expérience de traduction collaborative ouverte en sciences sociales, in Réseaux, 2013/6, n°182, pp. 187 et s.
  2. Sur Wikipedia, nous trouvons une ligne de temps des médias sociaux remontant aux années 70  : https://en.wikipedia.org/wiki/Timeline_of_social_media. Voir aussi Valérie Schafer, Les réseaux sociaux numériques d’avant, in Le temps des médias, 2018/2, n°31, pp. 121 et s.
  3. Sur les réseaux sociaux, leur architecture et leur influence sur la démocratie, voir aussi Amaelle Guiton, Réseaux sociaux  : ont-ils enterré le débat public  ?, in Revue Projet, 2019/4, n°371, pp. 26 et s.
  4. Sur le parallèle entre le code informatique et l’architecture parisienne sous Napoléon III, voir Lawrence Lessig, Code. Version 2.0,  Basic Books, 2006, p. 127.
  5. A. Gide, L’évolution du théâtre, Nouveaux prétextes, Mercure de France, 2014.
  6. L’expression est traduite du titre d’un atelier intitulé It’s the business model, stupid ! Targeted advertising and human rights organisé à la Rightscon 2019 à Tunis le 13 juin 2019.
  7. Le fait d’avoir besoin de beaucoup de données pour cibler au mieux le public destinataire d’une publicité n’est pas une évidence et doit quoi qu’il en soit s’inscrire en conformité avec le principe de minimisation des données porté par l’article 5 du règlement général sur la protection des données (2016/679).
  8. La citation du président de Netflix, Reed Hastings, est issue de Rina Raphaël, Netflix CEO Reed Hastings : Sleep Is Our Competition, Fastcompany.com, 11 juin 2017. Le temps de cerveau disponible est une expression de Patrick Le Lay, ancien PDG de TF1 et remontant à 2004.
  9. Sur le temps passé sur les réseaux sociaux, le site Statista.com fait état d’une moyenne mondiale passée de 90 minutes en 2012 à 136 minutes en 2018.
  10. Sur l’affaire Cambridge Analytica, voir pour l’usage des données Alex Hern, Cambridge Analytica : how did it turn clicks into votes ? Theguardian.com, 6 mai 2018. Et pour des exemples de publicités élaborées selon les types de personnalités définies voir Jeremy B. Merrill et Olivia Goldhill, These are the political ads Cambridge Analytica designed for you, Qz.com, 10 janvier 2020.
  11. L’intégralité du discours d’Emmanuel Macron à l’Internet Governance Forum est disponible sur Elysee.fr.
  12. US Code, chapter 47, section 230.
  13. Sur la décision du Conseil constitutionnel sur la LCEN, voir le considérant 9 de la décision n°2004-496 du 10 juin 2004.
  14. Pour une illustration d’un arrêt de la Cour européenne des droits de l’homme sur la liberté d’expression, voir CEDH, Handyside v. the United Kingdom, arrêt du 7 décembre 1976.
  15. Sur le cas des modérateurs, outre les nombreux articles et reportages dédiés, voir notamment l’ouvrage de Sarah T. Roberts, Behind the screen (Yale University Press, 2019) ou encore les articles de Casey Newton pour The Verge, dont Bodies in seats du 19 juin 2019 et disponible sur Theverge.com.
  16. Sur la «  cour suprême  » de Facebook, voir en dernier lieu Le Monde et AFP, «  Bientôt une «  cour suprême  » de Facebook, pour statuer sur les publications supprimées », (Lemonde.fr, 25 janvier 2020) et Brent Harris, « Preparing the Way Forward for Facebook’s Oversight Board » (about.fb.com, 28 janvier 2020), pour toutes les informations relatives à son fonctionnement.
  17. Sur la puissance et les difficultés de la modération avec des logiciels, voir, par exemple, Ex Machina : Personal Attacks Seen at Scale, Ellery Wulczyn, Nithum Thain, et Lucas Dixon, WWW ’17 : Proceedings of the 26th International Conference on World Wide Web.
  18. Sur la position de la France, voir la tribune de sept ministres  : « Mettre fin à l’impunité » sur le Web  : sept ministres s’engagent à lutter contre la haine en ligne, Lemonde.fr, 18 juin 2019.
  19. Le code de conduite de la Commission européenne de mai 2016 relatif aux discours haineux illégaux en ligne est disponible sur le site ec.europa.eu. Voir aussi la recommandation de la Commission du 1er mars 2018 sur les mesures destinées à lutter, de manière efficace, contre les contenus illicites en ligne, C(2018) 1177 final.
  20. Le rapport de la mission «  Régulation des réseaux sociaux – Expérimentation Facebook  » publié en mai 2019 est disponible sur numerique.gouv.fr
  21. Pour une approche similaire consistant à considérer que le problème principal réside dans l’organisation du contenu en ligne, voir Hannah Murphy et Madhumita Murgia, « Can Facebook really rely on artificial intelligence to spot abuse ? » (Ft.com, 8 novembre 2019), et notamment la conclusion laissée à Mme Sasha Havlicek de l’Institute for Strategic Dialogue  : «  If you don’t address the underlying tech architecture that amplifies extremism through the algorithmic design, then there is no way to outcompete this.  »
  22. Sur l’utilisation des données numériques, voir Serge Abiteboul et Valérie Peugeot, Terra Data, Qu’allons-nous faire des données numériques ?, Le Pommier, 2017.
  23. Le site Moonshotcve.com présente les travaux de l’organisation sur la lutte contre la violence en ligne dont l’ensemble du travail de cartographie des discours extrémistes.
  24. Les informations relatives à la redirect method sont disponibles notamment sur le redirectmethod.org et sur le site de l’ADL.
  25. À l’instar de Life After Hate, d’autres organisations s’appuient sur une mise en relation avec d’anciens «  extrémistes violents  », notamment pour définir les réponses les plus adaptés aux discours extrêmes en ligne. À ce titre, voir le programme Against Violent Extremism de l’Institute for Strategic Dialogue.
  26. Sur la régulation par la société, voir Claire Legros, Paula Forteza : « Les citoyens doivent participer à la régulation des plates-formes numériques », Lemonde.fr, 19 novembre 2018.