La transmission de données à la puissance publique est le premier pilier clef de la régulation. Les entreprises développant les modèles d’IA les plus puissants seront désormais tenues de partager leurs données avec le gouvernement américain. 

  • L’obligation de partage concerne les résultats des tests des modèles qui posent un risque pour la sécurité nationale, la santé publique ou la sécurité économique, selon des critères définis par le gouvernement. 
  • Le type de modèles visés sont les « modèles de fondation », modèles de base d’IA générative pouvant ensuite être utilisés et déployés pour des usages multiples. 
  • La biologie – et notamment la synthèse biologique – est identifiée comme un secteur particulièrement à risque concernant ses intéractions avec l’IA. L’attribution de financements fédéraux aux entreprises opérant dans le secteur sera désormais conditionnée au développement et au respect de nouveaux standards élevés.

Au-delà de la sécurité nationale, le décret traite un ensemble large de problématiques liées au développement et à l’usage croissant des modèles d’IA.

  • Le décret s’attaque à la question de la détection et du traitement des contenus potentiellement frauduleux générés par IA – dont les « deepfakes » vidéos ou audios permettant notamment de prêter des propos ou des actions à des personnalités. 
  • Le décret prévoit le financement d’un Réseau de Coordination de la Recherche dans le domaine de la cryptographie et des méthodes de protection des données privées.  
  • Les biais des algorithmes et leur propension à renforcer les discriminations dans le domaine de la santé, de la justice et de l’accès au logement ou à l’emploi sont traités, notamment par le biais de l’établissement de directives et de formations pour les propriétaires et les praticiens de la justice. 
  • Des mesures visant à anticiper la prévention de l’impact de l’IA sur le marché du travail et à limiter les risques qu’elle pose pour les employés sont également incluses. En 2022, la perte d’emploi humains était le point le plus évoqué comme première raison d’inquiétude vis-à-vis de l’IA aux États-Unis1 – devant la surveillance, le hacking et les potentielles atteintes à la vie privée.
  • Des mesures pour améliorer et préserver l’écosystème d’innovation américain sont prévues, avec un soutien technique aux petites entreprises du secteur. L’octroi et le prolongement des visas des travailleurs non-Américains du secteur seront également facilités.

Cette législation était très attendue dans la mesure où les États-Unis sont le pays qui domine encore largement le secteur de l’IA. La séquence est marquée par la multiplication des tentatives de régulation de l’intelligence artificielle par les gouvernements et les organisations internationales. 

  • Les dirigeants du G7 se sont accordés ce lundi 30 octobre sur onze principes directeurs2 et un code de conduite non contraignant à destination des développeurs de modèles d’IA.
  • Le Parlement européen a adopté en juin 2023 l’AI Act, fondé sur une hiérarchie des risques d’usage des technologies d’IA. La législation a notamment banni les pratiques de notation sociale et l’identification biométrique en temps réel.
  • L’une des principales difficultés de la régulation de l’IA reste de s’adapter à un domaine en évolution rapide. 
Sources
  1. Stanford University, Human-Centered Artificial Intelligence, AI Index Report, 2023.
  2.  G7, Hiroshima Process International Guiding Principles for Organizations Developing Advanced AI System, 30 October 2023.