En mai dernier, Séoul accueillait un important sommet international sur l’IA organisé conjointement par le Royaume-Uni et la Corée du Sud. Celui-ci faisait suite au premier sommet international sur la sécurité de l’intelligence artificielle organisé 6 mois plus tôt à Bletchley Park, lieu célèbre pour avoir constitué le centre névralgique des opérations de décryptage pendant la Seconde Guerre mondiale.
- L’intelligence artificielle a connu une explosion fulgurante et inédite dans l’histoire de l’humanité : selon le cabinet Bain & Co., le marché global de l’AI représentera près de 1 000 milliards de dollars d’ici 2027 1.
- À son pic, atteint en avril 2023 suite à l’introduction de GPT-4, l’agent conversationnel d’OpenAI, ChatGPT, attirait 1,8 milliard de visites par mois.
- L’utilisation croissante des divers services d’intelligence artificielle comporte toutefois un nombre important de risques, allant des deepfakes au bioterrorisme, que les États souhaitent mieux comprendre et prévenir.
C’est l’objet de la réunion qui se tient en ce moment à San Francisco. Organisée conjointement par le département d’État et du Commerce américains, celle-ci vise à inaugurer le lancement du Réseau international des instituts de sécurité de l’IA 2. Cette initiative, qui regroupe pour le moment 35 pays (dont les 27 membres de l’Union européenne), consiste en un réseau d’instituts dont le rôle est de développer une feuille de route afin de rendre l’utilisation de l’IA plus sûre.
La « sécurité de l’IA » constitue un domaine de recherche à part entière qui se décompose en deux principaux champs : la sécurité technique et des processus 3.
- L’aspect technique vise à rendre les modèles d’intelligence artificielle plus fiables et conformes à l’utilisation prévue par leurs développeurs. À San Francisco, les experts du Réseau vont notamment discuter de la manière de rendre les IA plus robustes, mieux définir leurs buts et mieux contrôler l’activité sur les chatbots 4.
- L’aspect concernant les processus est quant à lui plus opérationnel et concerne les politiques et procédures qui entourent l’utilisation de l’IA. Il doit permettre aux développeurs de mieux construire et gérer des modèles d’IA afin de garantir une utilisation sûre.
À deux mois de son investiture, la réunion se tient dans l’ombre de Donald Trump. Ce dernier s’est engagé durant la campagne à annuler le décret signé par Biden en novembre 2023 imposant des règles aux entreprises développant des modèles d’IA. La plateforme du Parti républicain adoptée en juillet précise que le président-élu, une fois à la Maison-Blanche, abrogera « le dangereux décret de Joe Biden qui entrave l’innovation en matière d’IA et impose des idées de gauche radicale au développement de cette technologie » 5.
La position globale de Trump vis-à-vis de l’intelligence artificielle est quant à elle plus floue. S’il pourrait conserver le réseau des instituts de l’IA, considéré comme important par la future administration, son proche allié Elon Musk est plus sceptique vis-à-vis de l’utilisation de la technologie par certains acteurs majeurs, dont l’entreprise OpenAI, contre laquelle il a intenté un procès en août 6.
Sources
- Saritha Rai, « AI Market Will Surge to Near $1 Trillion by 2027, Bain Says », Bloomberg, 25 septembre 2024.
- U.S. Secretary of Commerce Raimondo and U.S. Secretary of State Blinken Announce Inaugural Convening of International Network of AI Safety Institutes in San Francisco, 18 septembre 2024.
- Gregory C. Allen et Georgia Adamson, The AI Safety Institute International Network : Next Steps and Recommendations, CSIS, octobre 2024
- Pedro A. Ortega et Vishal Maini, Building safe artificial intelligence : specification, robustness, and assurance, Medium, 27 septembre 2018.
- 2024 GOP PLATFORM MAKE AMERICA GREAT AGAIN !
- Sarah Parvini, « Elon Musk sues OpenAI, renewing claims ChatGPT-maker put profits before ‘the benefit of humanity’ », Associated Press, 6 août 2024.