Key Points
  • La souveraineté technologique est un enjeu stratégique pour la souveraineté politique des démocraties libérales de l’Union. L’expansion des technologies d’intelligence artificielle et la privatisation des normes qui les sous-tendent déstabilisent les États et les sociétés européennes.
  • L’Europe technologique doit promouvoir et construire un cadre technico-normatif fidèle à ses valeurs universalistes d’égalité entre les individus, et à son organisation sociopolitique où le rôle de l’État et de ses représentants prévaut sur les autres parties prenantes.
  • Pour ce faire, elle doit relever les défis techniques liés à la discrimination algorithmique dans un contexte où le modèle normatif des dispositifs d’intelligence artificielle crées par les grandes plateformes américaines (cloud et applications), traduit une approche multi-culturaliste fondée sur la quête d’équité entre les différentes communautés d’appartenance et un rôle réduit du politique.
  • Le défi est d’autant plus important à relever que ces dispositifs, et leurs normes, sont utilisés par un nombre croissant d’industries et d’administrations publiques européennes, faute d’alternatives autonomes.

L’intelligence artificielle connaît une expansion considérable et le nombre des technologies qui s’appuient sur elle augmentent jour après jour, s’immisçant dans tous les domaines, aussi bien industriels (sécurité, santé, banque-assurance) que de la vie quotidienne. Dotées d’un langage commun, ces technologies s’entre-impliquent, s’appellent et se répondent, provoquant d’une part, la transformation des secteurs qu’elles pénètrent, et favorisant, d’autre part, l’émergence d’écosystèmes1 entiers qu’elles régissent. La question de la souveraineté technologique n’est donc pas qu’industrielle ou économique, elle est plus largement sociale et politique. Contre les leçons de l’anthropologie et la philosophie des techniques2, les technologies sont le plus souvent appréhendées comme des outils qui s’inscrivent dans notre environnement pour en faciliter la maîtrise, se substituant à un quantum d’opérations manuelles ou d’opérateurs humains. Cette vision naïve et objectivante des technologies abuse doublement : les technologies ne s’inscrivent pas dans un environnement sans le reconfigurer de façon plus ou moins profonde – que l’on songe à l’infrastructure rendue nécessaire par la voiture –, et elles ne sont pas dépourvues de valeurs et de standards sociaux, qu’elles véhiculent à même l’environnement qu’elles colonisent. Par conséquent, la question de l’indépendance technologique de l’Union Européenne se redouble de manière aiguë de celle de son indépendance politique, sociale et organisationnelle et ce, non seulement parce qu’elle ne créée plus les technologies dont elle peut et veut disposer, mais également, parce que ces technologies véhiculent des valeurs qui ne correspondent pas nécessairement aux valeurs politiques sur lesquelles se fondent les sociétés démocratiques européennes. Le dernier livre blanc consacré à la stratégie numérique de l’Union européenne, appelle de ses vœux un développement technologique qui combine compétitivité et garantie des droits et libertés individuelles, incarne le rapport singulier que l’Europe entretient à l’universel et aux valeurs d’égalité et de justice3. L’universalisme européen – irrigué par les leçons des Lumières4 et leur idéal d’affranchissement des déterminismes biologiques et sociaux –, contraste avec l’organisation multi-culturaliste qu’adoptent les États-Unis jusque dans la conception des jeux de données et des algorithmes qui gouvernent les systèmes et applications fournies par les big tech. Pendant que l’Europe réfléchit aux moyens de défendre une approche universaliste, égalitaire et non-discriminatoire entre les individus, aux États-Unis, multiculturalisme et discrimination s’opérationnalisent pour répondre aux réquisits de l’équité (fairness) entre communautés d’appartenance  ethno-raciales, religieuses ou genrées et la constitution récente de groupes spécifiques Black in AI, Queer in AI, Muslim in AI, devrait encore accroître ce mouvement, etc. Les débats ont quitté le ciel des idées pour devenir contraintes concrètes d’ingénieurs et paramètres d’algorithmes d’intelligences artificielles qui, parce qu’elles sont prescriptives, peuvent impacter très pratiquement la vie des organisations comme des individus.

La prise de conscience de cet impact à mesure que les systèmes se déploient, a dopé, aux États-Unis et dans les forums internationaux, la recherche scientifique et les échanges autour des modalités concrètes de l’équité dans l’IA tandis qu’émergeait parallèlement la question d’un colonialisme algorithmique. Notre propos, dans cette étude, est de montrer a) les enjeux politiques et organisationnels sous-jacents au choix de la fairness, b) les types de solution – technologiques, juridiques, politiques –, toutes lacunaires, qui y sont apportées, c) d’esquisser quelques pistes de réflexion technologique et juridiques qui permettraient d’endosser une conception universaliste, égalitariste, de la non-discrimination, congruente avec les modèles politiques européens . 

Discriminations et naissance de la « fairness » dans  l’intelligence artificielle

La technologie et en particulier les algorithmes prescriptifs d’IA ont, nous l’avons indiqué, partie liée avec les standards sociaux de l’environnement dans lesquels ils sont conçus. Comme le rappelle Langdon Winner dès 1980 dans “Do Artifacts have politics”5 et avant lui les observateurs critiques des révolutions industrielles du XIXème siècle, il est bien établi que la technologie n’évolue pas dans un éther déconnecté des valeurs qui façonnent les imaginaires des innovateurs. Cependant, dans le cas de l’IA, le narratif autour des questions d’éthique, de non-discrimination et d’équité (fairness en anglais) des modèles n’a été popularisé que récemment. Outre l’essor depuis 2016-2017 de la littérature scientifique à ce sujet, la multiplication d’initiatives sur l’éthique est concomitante avec le déploiement en masse des systèmes d’IA pour des applications dans des domaines industriels classiques comme la santé, la finance, ou l’éducation. Ces initiatives reflètent les volontés conjointes du monde académique (conférence FAccT6, Fairness, Accountability and Transparency en 2018 ou IEEE global initiative on Ethics7), des consortiums industriels (Partnership on AI8, 2017) ou des différentes instances de gouvernance internationale (AI for Good9, Global Partnership on AI10, 2020, les principes de l’OCDE11 ou le groupe d’experts de haut niveau de la Commission Européenne12, 2018) de traiter ces sujets. L’IA, nouvelle puissance prédictive performative fait irruption dans nos vies et affecte par le truchement de ses applications industrielles des modèles de société variés. Dans le même temps, des audits de l’état de l’art technologique interrogent sur la représentation des groupes socio-culturels, religieux ou ethniques dans la culture digitale : les systèmes de reconnaissance faciale traitent moins bien les peaux noires que blanches, des modèles (GANs) de défloutage de photos transforment des visages de peaux noires en peaux blanches, les systèmes de traitement du langage sont très centrés sur l’anglais et biaisés, et ceux du speech-to-text (transformation d’un fichier audio en texte) reconnaissent mal les différents accents ou tonalités de voix. Ces déficiences technologiques ont un impact réel dans la vie des citoyens. Dans les cas les plus critiques, une erreur d’un système de reconnaissance faciale13 aux États-Unis peut entraîner une arrestation injustifiée par la police. De même, des systèmes d’allocation de soins basés sur une corrélation entre le montant des frais de santé dépensés et l’état du patient discriminent systématiquement les afro-américains14 qui dépensent moins que d’autres patients présentant pourtant les mêmes symptômes qu’eux. Plus récemment, les priorités en matière de vaccination contre le Covid-19, ont fait l’objet de calculs et d’arbitrage, en couplant fragilité, données épidémiologiques et données ethno-raciales.

Les technologies ne s’inscrivent pas dans un environnement sans le reconfigurer de façon plus ou moins profonde – que l’on songe à l’infrastructure rendue nécessaire par la voiture –, et elles ne sont pas dépourvues de valeurs et de standards sociaux, qu’elles véhiculent à même l’environnement qu’elles colonisent. Par conséquent, la question de l’indépendance technologique de l’Union Européenne se redouble de manière aiguë de celle de son indépendance politique, sociale et organisationnelle.

Valérie Kokoszka, VICTOR STORCHAn

Ces exemples sont relativement connus et témoignent de l’effet tangible des technologies d’IA sur la vie des individus. Toutefois, appréhendés comme des déficiences des systèmes, ils laissent penser ou croire que sans le tragique de l’erreur, les systèmes d’IA seraient neutres et sans impacts discriminants. C’est oublier que la performance prescriptive de l’IA est précisément conditionnée par les discriminations – le tri – qu’elle opère dans le divers des datas, à travers ses algorithmes. On pourrait objecter que les démocraties libérales européennes, en raison du non enregistrement des données liées à la race ou à la religion, s’exceptent factuellement de la discrimination algorithmique. Mais ce serait ignorer que le simple fait que l’algorithme soit prévu pour opérer ce type de tri, le biaise axiologiquement.

Comment faire pour que la discrimination des datas que nécessite l’IA pour être opératoire et prescriptive, ne se transforme pas en discrimination sociale des individus, inéquité, injustice et sur base de quelle conception de la justice ?

La voie du solutionnisme technologique

La première voie empruntée consiste à internaliser la problématique éthique du traitement équitable et de la non-discrimination à même le modèle. Des mécanismes d’automatisation du concept d’équité se développent et viennent enrichir la chaîne de mise en production des modèles d’IA.  On y ajoute ainsi de nouveaux moyens de contrôle que la plupart des fournisseurs de Cloud proposent en complément de la mise à disposition des capacités de calculs : par l’identification de biais, la mise en place d’alertes pour prévenir une discrimination algorithmique et la correction des modèles ou jeux de données concernés.

Les chercheurs créent un cadre théorique robuste pour déceler puis traiter les problèmes de biais dans les jeux de données et les modèles d’IA. Plusieurs métriques ou scores statistiques, souvent incompatibles entre eux, sont ainsi développées pour encoder dans le formalisme mathématique les différentes incarnations de ces concepts issus de la philosophie politique. Illustrons cette incompatibilité par un exemple : aux États-Unis, des algorithmes d’IA sont parfois chargés de déterminer le risque de récidive de détenus. Plusieurs tests d’équité de l’algorithme peuvent être considérés mais ces métriques ne peuvent pas être simultanément satisfaites : l’ingénieur peut choisir d’assurer que le taux d’erreur de l’algorithme est le même pour tous les genres ou groupes minoritaires identifiés ou choisir que le seuil de risque à partir duquel l’algorithme juge qu’il y aura récidive soit le même pour tous les genres ou groupes minoritaires.

Ces mesures se scindent en deux groupes selon le clivage suivant :

  • soit l’individu prévaut sur le groupe : avec cette conception aristotélicienne, deux individus aux caractéristiques similaires (mis à part les critères de « race », sexe, âge etc..) doivent être traités par l’algorithme de la même façon.
  • soit le groupe prévaut sur l’individu et est perçu comme un tout. Dans ce deuxième cas, l’algorithme doit traiter de manière équitable le groupe minoritaire (également appelé groupe protégé selon la traduction mot à mot de l’anglais) et le groupe majoritaire.

Ces deux visions sont irréconciliables dans le sens ou aucune des deux n’implique nécessairement l’autre. Par ailleurs, choisir une mesure statistique selon l’un ou l’autre des paradigmes est un choix subjectif et les législations nationales sur la discrimination en Europe sont fondamentalement contextuelles et ne précisent pas le test statistique et les seuils de signifiance à utiliser selon les cas de figure. Cette indétermination juridique  a pour objectif de laisser une large place à l’appréciation du juge, de sorte que la jurisprudence puisse accompagner et encadrer au mieux les évolutions des systèmes d’intelligence artificielle.

De la même manière, ce qui du point de vue technique, apparaît comme un « flou contextuel » traduit également une position fondamentale de l’éthique : pour être opérante sur un système, rester libre de lui, elle doit conserver une extériorité qui lui permet d’en critiquer les limites variables selon les contextes. Internalisée et automatisée, l’éthique ne serait plus qu’une contrainte parmi d’autres, un élément du système à l’efficacité amputée. L’internalisation favoriserait, en outre, les modèles éthiques qui se prêtent le mieux à la computation, en l’espèce, l’utilitarisme, à travers la maximisation de l’utilité maximale pour un nombre maximal d’individus.

Internalisée et automatisée, l’éthique ne serait plus qu’une contrainte parmi d’autres, un élément du système à l’efficacité amputée. L’internalisation favoriserait, en outre, les modèles éthiques qui se prêtent le mieux à la computation, en l’espèce, l’utilitarisme, à travers la maximisation de l’utilité maximale pour un nombre maximal d’individus.

Valérie Kokoszka, VICTOR STORCHAn

La seconde approche empruntée par le solutionnismes technologique est celle  dite de co-design ou de co-conception. Elle émerge en parallèle et complémente l’aspect technique en traitant les questions d’équité par la coopération entre les différentes parties prenantes dans l’élaboration d’un modèle. Juristes, régulateurs, concepteurs des modèles, sociologues, décideurs publiques ou citoyens forment une coalition (non exhaustive) d’acteurs et oeuvrent à établir un cadre de gouvernance agile de l’IA sur les questions d’éthiques en produisant des normes, certifications, lignes de conduites ou incitations qui agissent à différents niveaux du cycle de vie des modèles. Le but visé est alors de se donner collectivement un cadre qui établit un compromis entre la performance du modèle, c’est-à-dire sa capacité à créer de la valeur sur un cas d’usage, et son caractère non discriminant. En effet, lors de son entraînement sur un large jeu de données, un modèle d’IA est construit pour trouver les corrélations entre les exemples qu’on lui donne et les résultats sur la tâche qu’il a à accomplir : classification ou régression par exemple. Il aura donc tendance à reproduire les biais contenus dans les données pour de multiples raisons. Le modèle peut ainsi répercuter un biais de sélection issu d’une mauvaise représentativité des données par rapport à la distribution réelle d’une population (on oublie une catégorie d’âge ou un genre surreprésenté). L’algorithme peut aussi calquer des biais historiques contenus dans des données du fait du contexte socio-économique dans lesquelles elles ont été collectées (historiquement, davantage de profils masculins sont par exemple retenus comme étant de bons candidats pour des emplois d’ingénieurs). Cependant, l’algorithme fonctionne comme une boîte noire compacte dont le capot ne peut s’ouvrir sur une éventuelle demande d’un juge qui serait désireux de comprendre la logique propre à l’algorithme. Et les difficultés liées à l’internalisation des paramètres éthiques à même le modèle ne sont donc pas levées.

Un solutionnisme juridique ?

Le cadre théorique et les outils de contrôle de l’équité mis à disposition par les grands fournisseurs de Cloud (principalement Amazon, Google et Microsoft) sont susceptibles d’être massivement utilisés par le tissu industriel européen, grands groupes15 comme start-ups16 qui utilisent déjà massivement ces moyens de calculs. Ainsi, au-delà du sujet de la perte de souveraineté relative aux données des individus que la régulation RGPD a vocation à traiter, l’Europe doit aussi s’assurer que ses principes éthiques et sa conception de l’équité comme égalité entre individus sont convenablement encodés et utilisés par les chaînes de production qui contrôlent les modèles d’IA. L’Europe possède un rapport singulier à l’universel et à la liberté qui diffère des autres grandes puissances technologiques telles que la Chine ou les États-unis. Porter ces principes jusque dans la conception de la technologie est une condition indispensable à son ambition d’autonomie stratégique et de souveraineté politique.

En matière de discrimination, les directives européennes fixent le cadre minimal qui doit être  adopté par les États membres. Ces derniers sur-transposent généralement ce qui conduit à une fragmentation de la législation. La jurisprudence de la cour européenne de justice17 ne définit pas clairement ce qu’est un groupe protégé pour laisser la latitude aux tribunaux de juger en fonction de la spécificité des contextes, corroborant les conceptions juridique (subsidiarité) et éthique qui animent les législations européennes .

En ce qui concerne l’intersectionnalité18, entendue comme le cumul entrecroisé de discriminations qui fonde des groupes spécifiques de discriminés, la jurisprudence de la Cour de justice de l’Union européenne mentionne explicitement que chaque aspect de la discrimination doit être évalué séparément et que la combinaison de deux critères (par exemple âge et sexe) ne peuvent être à l’origine d’une discrimination si la preuve n’est pas apportée qu’il existe une discrimination sur la base de chacun des deux critères pris séparément. À l’inverse, la jurisprudence américaine reconnait que « femme noire » est un groupe protégé spécifique19 et admet sur le même principe la combinaison de groupe du type « sexe plus un autre critère »20.

L’Europe possède un rapport singulier à l’universel et à la liberté qui diffère des autres grandes puissances technologiques telles que la Chine ou les États-unis. Porter ces principes jusque dans la conception de la technologie est une condition indispensable à son ambition d’autonomie stratégique et de souveraineté politique.

Valérie Kokoszka, VICTOR STORCHAn

L’approche socio-politique 

Ces points de vigilance ont amené ces dernières années les participants des grandes conférences d’IA telles que NeurIPS à se pencher sur la question lors de workshops dédiés pouvant mettre l’accent sur un cas d’application industriel particulier : Fair AI in Finance21, Fair ML for Health22 etc.. Cependant, on a constaté simultanément une multiplication de workshops visant des « groupes d’affinités » spécifiques : Black in AI23, Muslim in AI24, Indigenous in AI25, Queer in AI26 LatinX in AI27 etc. Ces groupes se constituent généralement par opposition au groupe majoritaire, dans une dynamique de reconnaissance de la singularité d’une communauté d’appartenance, qui occasionnerait sui generis, des discriminations spécifiques, justifiant des politiques d’équité spécifiques.

La constitution d’un groupe témoin, nécessaire pour certifier un cas de discrimination est cependant moins binaire que la grille de lecture précédente et souvent délicate pour la jurisprudence de la cour européenne de justice. Ces groupes témoins dépendent du contexte et doivent être constitués au cas par cas en fonction de la situation précise et de la contestation. Ainsi, des questions comme « est-ce que des employées à plein temps sont identifiables a des employés à temps partiel ? » ou « est ce que des couples mariés de même sexe sont identifiables a des couples mariés de sexe différents ? » doivent être tranchées pour constituer les groupes.

D’autres narratifs28 ancrent leurs luttes dans un rapport politique entre minorités colonisées et puissances colonisatrices revendiquant la pertinence de l’analogie historique employée. C’est le cas du néologisme « colonialisme algorithmique » : ce concept propose d’articuler une cohérence entre l’oppression issue de la centralisation asymétrique d’un pouvoir technologique confisqué par quelques puissances industrielles et les contextes culturels et sociopolitiques dans lesquels ces derniers conçoivent l’IA. En mobilisant le terme de colonialisme algorithmique, certains observateurs plaquent ainsi une notion historique particulièrement évocatrice sur une logique pourtant moins binaire et à la géographie sensiblement différente. En effet, l’alignement d’intérêts entre les États et les puissances technologiques est de moins en moins évident. Un droit de la concurrence robuste est ainsi indispensable pour un État désireux de promouvoir l’innovation mais antagoniste avec l’ambition monopolistique de grands acteurs technologiques. D’autre part, l’IA peut améliorer la productivité de ces firmes multinationales sans que ces gains ne se retrouvent dans le PIB national29 du fait de la division internationale du travail. Enfin, les différends interétatiques sur le traitement des données se règlent au sein d’instances internationales dans un multilatéralisme que l’Europe revendique, et non dans une relation de dominants à dominés. C’est par exemple le cas lorsque l’Inde, l’Indonésie, l’Egypte ou l’Afrique du Sud ne signent pas l’Osaka track30 lors du sommet du G20 portant sur les données issues du commerce numérique. Géographiquement, les rapports de force ont aussi évolué. La volonté universaliste d’une Europe technologique n’est en rien comparable avec l’empire colonial et les discriminations raciales sur lesquelles il a pu s’établir, d’autant plus que les démocraties européennes ont tiré les leçons d’une partition raciale de l’humanité et des horreurs auxquelles elles peuvent mener.

En mobilisant le terme de colonialisme algorithmique, certains observateurs plaquent une notion historique particulièrement évocatrice sur une logique pourtant moins binaire et à la géographie sensiblement différente. En effet, l’alignement d’intérêts entre les États et les puissances technologiques est de moins en moins évident.

Valérie Kokoszka, VICTOR STORCHAn

Résoudre la dimension aporétique d’une IA universaliste

La recherche en IA prend un tournant industriel qui impose de résoudre l’aporie d’une IA universelle, soucieuse de l’égalité entre les individus. Alors que la discipline était historiquement très ouverte et la connaissance (publications ou code source) disponible en libre accès, un nombre croissant de modèles d’IA sont conçus par un nombre très restreints d’acteurs, puis largement déployés avec un impact considérable sur un très grand nombre d’utilisateurs. Ainsi, le rapport de l’IA à l’universel soulève intuitivement un paradoxe. Il convient de définir ce que l’on entend par universel lorsqu’on le rapporte à l’IA. Il ne s’agit en rien de l’effacement des différences, où la technique fournirait aux utilisateurs une solution unique et universelle à laquelle ils n’auraient plus qu’à se conformer mais d’un universalisme expérimental au sens de Pierre Rosanvallon31. Par opposition à un universalisme normatif, l’universalisme expérimental reconnaît que nous sommes de perpétuels apprenants de l’implémentation des principes éthiques de l’IA dont les enjeux doivent être résolus non pas dans un conflit de communautés juxtaposées et de strates cognitives, mais dans le dialogue ouvert plurilatéral d’individus et de chercheurs qui sont avant tout des semblables. L’universalisme expérimental appliqué à l’intelligence artificielle, c’est aussi comprendre comment la complexité du réel est encodée ou non dans les jeux de données et dans quelle mesure le modèle peut aussi agir comme un prisme déformant qui amplifie ou atténue des phénomènes du monde tangible. C’est donc, selon la formule de Montesquieu, un mouvement d’oscillations permanentes entre un horizon d’universel et des contraintes particulières qui délimitent la tâche du juriste et du régulateur qui doit produire des textes suffisamment spécifiques pour être applicables. L’universalisme expérimental, c’est enfin la possibilité d’expliciter collectivement les points d’incertitude lorsqu’une ambiguïté intrinsèque est observée du fait des particularismes des cultures.

Un cadre technologique alternatif

Pour qu’il soit convergent avec l’organisation politique des démocraties européennes basée sur l’égalité entre individus et non l’équité entre communautés d’appartenance, le cadre technologique qui utilise les concepts de non-discrimination et d’équité ne doit pas figer les identités des individus en leur assignant des étiquettes réductrices, ni les inscrire dans des communautés fermées. Dans cette optique, le défi est de ne pas définir des groupes d’appartenance a priori mais de pouvoir auditer au cas par cas l’entièreté d’un système d’IA pour vérifier qu’il n’est effectivement pas discriminant. Plusieurs travaux novateurs de recherche étudient ainsi comment de façon non supervisée (c’est-à-dire sans coller d’étiquettes a priori sur les individus) il est possible de quantifier les facteurs dans les données qui seraient impactés de manière disproportionnée32. Ce dispositif est un pas essentiel vers le développement d’un cadre éthique universel qui serait déployable et utilisable dans des environnements aux normes sociales et sociétales variées sous condition d’égalité.

Pour qu’il soit convergent avec l’organisation politique des démocraties européennes basée sur l’égalité entre individus et non l’équité entre communautés d’appartenance, le cadre technologique qui utilise les concepts de non-discrimination et d’équité ne doit pas figer les identités des individus en leur assignant des étiquettes réductrices, ni les inscrire dans des communautés fermées. Dans cette optique, le défi est de ne pas définir des groupes d’appartenance a priori mais de pouvoir auditer au cas par cas l’entièreté d’un système d’IA pour vérifier qu’il n’est effectivement pas discriminant.

Valérie Kokoszka, VICTOR STORCHAn

Conclusion

Le déploiement de l’intelligence artificielle et des technologies afférentes met en jeu le modèle et les institutions démocratiques européennes. En effet, les exigences liées à l’efficience performative et prescriptive des IA en termes de discrimination des datas, pourraient imposer des choix philosophiques ou idéologiques qu’elles n’endosseraient pas. Plus radicalement encore, le positionnement éthique européen, et le droit dans lequel il s’exprime, est fondamentalement rétif à une internalisation algorithmique des contraintes éthiques et légales qui amputeraient le pouvoir judiciaire, et par extension, celui l’Etat, à dire la norme légitime pour tous les individus et à l’apprécier en contexte. Pour autant, l’Europe ne peut pas être un géant normatif et un nain technologique, ce qui, in fine, aboutirait également à l’affaiblissement de ses structures et de son organisation démocratique. La prise de conscience par les acteurs publics et la société civile de ces enjeux doit permettre un couplage du technologique, du juridique et du politique, plus fin et plus approprié à ses valeurs. La magie de l’arsenal réglementaire ne frappera sans doute pas l’opacité algorithmique de sa grâce pour en dissoudre les dangers. En revanche, l’auditabilité des bases de données, la transparence, la traçabilité et l’explicabilité maximale des algorithmes, couplées à une éducation à la citoyenneté technologique pourraient sensiblement les réduire.

Sources
  1. Nous entendons ici l’écosystème selon les termes de la seconde cybernétique, en tant que système complexe auto-poiëtique (auto-organisé et auto-producteur). Voir en particulier, les travaux fondateurs de Ludwig von Bertalanffy, Norbert Wiener, Ross Ashby et de Francesco Varela.
  2. Voir à ce sujet, André Leroi-Gourhan, Milieu et techniques, Paris, Albin Michel, 1945, dont les travaux ont établi la co-évolution de l’homme et de la technique depuis le paléolithique ; et Gilbert Simondon, Du mode d’existence des objets techniques, Paris, Aubier, 2012, qui a démontré les modalités autonomes de reconfiguration du réel dont les objets techniques sont porteurs.
  3. https://ec.europa.eu/info/sites/info/files/commission-white-paper-artificial-intelligence-feb2020_fr.pdf
  4. La philosophie des Lumières désigne des philosophies aussi diverses que celles de Voltaire, Locke ou Kant, animées par un idéal d’égalité des individus et de développement social, politique et scientifique en raison.
  5. https://www.jstor.org/stable/20024652?seq=1
  6. https://facctconference.org/
  7. https://standards.ieee.org/industry-connections/ec/autonomous-systems.html
  8. https://www.partnershiponai.org/
  9. https://aiforgood.itu.int/
  10. https://www.gouvernement.fr/en/launch-of-the-global-partnership-on-artificial-intelligence
  11. https://www.oecd.org/going-digital/ai/principles/
  12. https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence
  13. https://www.nytimes.com/2020/12/29/technology/facial-recognition-misidentify-jail.html
  14. https://science.sciencemag.org/content/366/6464/447
  15. https://www.boursedirect.fr/fr/actualites/categorie/divers/thales-et-google-cloud-s-associent-boursier-c156be55f7f53c3d3dc896b94081eafca951d8dc
  16. https://business-cool.com/actualites/actu-business/amazon-france-accelerateur-du-numerique-bpifrance/
  17. https://arxiv.org/ftp/arxiv/papers/2005/2005.05906.pdf
  18. Selon le concept initié par la juriste afro-américaine Kimberley Crenshaw, https://is.muni.cz/el/fss/jaro2016/SPR470/um/62039368/Crenshaw_1991.pdf, https://law.ucla.edu/news/intersectionality-30-qa-kimberle-crenshaw
  19. https://law.justia.com/cases/federal/district-courts/FSupp/649/770/1632139/
  20. https://op.europa.eu/en/publication-detail/-/publication/014f442a-abe3-4dfd-b688-43cda49c15db
  21. https://nips.cc/Conferences/2020/Schedule?showEvent=16118
  22. https://www.fairmlforhealth.com/
  23. https://blackinai2020.vercel.app/
  24. https://nips.cc/virtual/2020/public/affinity_workshop_19591.html
  25. https://nips.cc/virtual/2020/public/affinity_workshop_19537.html
  26. https://sites.google.com/view/queer-in-ai/neurips-2020_1
  27. https://www.latinxinai.org/events. Il faut noter que dans la foulée du mouvement pour les droits civiques, des recueils de droit spécifiques aux minorités raciales ont vu le jour, telles que « Harvard BlackLetter Law Journal » (https://harvardblackletter.org) ou « LatinX Harvard Review » (https://harvardllr.com), dont l’objectif est traiter les questions de droit et les discriminations qui les touchent.
  28. https://arxiv.org/pdf/2007.04068.pdf
  29. https://www.lepoint.fr/phebe/phebe-comment-creer-de-la-croissance-sans-augmenter-le-pib-23-12-2020-2406894_3590.php
  30. https://scroll.in/latest/928811/g20-summit-india-does-not-sign-osaka-declaration-on-cross-border-data-flow
  31. https://laviedesidees.fr/L-universalisme-democratique-histoire-et-problemes.html
  32. Sara Hooker, Google Brain https://arxiv.org/pdf/2008.11600.pdf. Sara Hooker, Google Brain http://whi2020.online/static/pdfs/paper_73.pdf