Pour de nombreux experts, les progrès exponentiels de l’IA générative représentés par ChatGPT ou GPT-4 signent les prémices d’une révolution technologique, cognitive et anthropomorphique majeure.
Face à ce changement de paradigme, une coalition inédite d’entrepreneurs, chercheurs et ingénieurs du domaine alertent dans une lettre ouverte sur les risques « civilisationnels » de l’IA. Ils plaident pour un moratoire de 6 mois : une pause dans le développement de la technologie pour réfléchir à sa fiabilité et sa sécurité.
Cette lettre est publiée par le Future of Life Institute, une organisation à but non lucratif fondée en 2014 et promouvant l’imaginaire long-termiste de la Silicon Valley. L’institut se donne pour mission de travailler à l’évitement de scénarios de menaces ou « risques existentiels » que les technologies de ruptures comme l’IA, la biologie synthétique ou la physique nucléaire font peser sur le futur de l’humanité.
Son cofondateur Jaan Tallinn (également cofondateur de Skype) ainsi qu’Elon Musk (conseiller et financeur de programme de recherche de l’institut) incarnent depuis des années une forme de radicalité militante en alarmant sur les risques de catastrophes technologiques irréversibles qui surviendraient à cause de l’IA. Le premier soutient par exemple la thèse du Professeur d’Oxford Toby Ord estimant que l’humanité aurait une chance sur six de ne pas survivre au XXIe siècle à cause de l’IA 1. Le second estime que les dangers liés à l’IA sont supérieurs « aux armes nucléaires » 2 ou « à la Corée du nord » 3. Musk a par ailleurs un différend avec Open AI, depuis qu’il l’a quittée en 2019 et il ne cache pas son ambition de développer un concurrent à ChatGPT.
Des objectifs plus pragmatiques semblent motiver d’autres signataires. L’IA est devenue l’une des industries les plus concentrées au monde : aujourd’hui, moins de 6 entreprises sont capables de produire à l’échelle des systèmes d’IA génératifs à l’état de l’art. En outre, le mode de fonctionnement de ces entreprises technologiques change : les préceptes de la science ouverte (publication scientifiques transparentes, code open source, etc..) qui prévalaient durant la dernière décennie de développement de l’IA ont laissé place à une opacité scientifique quasi totale. Cette nouvelle dynamique associée à la fulgurance du déploiement de l’IA posent des défis inédits aux acteurs de l’écosystème, aux autorités de régulation et à la société. Elles amènent simultanément leur lot d’incertitudes, de risques, d’utopies et de dystopies.
Dans les prochaines semaines, sur le Grand Continent à partir de la série « Puissances de l’IA », dont un nouvel épisode paraît chaque vendredi, et avec le Groupe d’études géopolitiques, nous lancerons un débat appuyé sur une vaste enquête avec les principaux spécialistes mondiaux de l’IA pour comprendre leurs positionnements.
Victor Storchan
Mettre en pause les expérimentations géantes en matière d’IA : une lettre ouverte
Les systèmes d’intelligence artificielle (IA) dotés d’une intelligence compétitive avec celle de l’homme peuvent présenter des risques profonds pour la société et l’humanité, comme le montrent des recherches approfondies 4 et comme le reconnaissent les principaux laboratoires d’IA 5. Comme l’indiquent les principes d’IA d’Asilomar, largement approuvés, l’IA avancée pourrait représenter un changement profond dans l’histoire de la vie sur Terre, et devrait être planifiée et gérée avec l’attention et les ressources nécessaires. Malheureusement, ce niveau de planification et de gestion n’existe pas, même si les derniers mois ont vu les laboratoires d’IA s’enfermer dans une course incontrôlée pour développer et déployer des esprits numériques toujours plus puissants que personne — pas même leurs créateurs — ne peut comprendre, prédire ou contrôler de manière fiable.
Les systèmes d’IA contemporains deviennent aujourd’hui compétitifs sur le plan humain pour des tâches générales 6, et nous devons nous interroger : devons-nous laisser les machines inonder nos canaux d’information de propagande et de mensonges ? Devrions-nous automatiser tous les emplois, y compris ceux qui sont gratifiants ? Devons-nous développer des esprits non humains qui pourraient un jour être plus nombreux, plus intelligents, plus obsolètes et nous remplacer ? Devons-nous risquer de perdre le contrôle de notre civilisation ? Ces décisions ne doivent pas être déléguées à des leaders technologiques non élus. Les systèmes d’IA puissants ne doivent être développés que lorsque nous sommes certains que leurs effets seront positifs et que leurs risques seront gérables. Cette confiance doit être bien justifiée et augmenter avec l’ampleur des effets potentiels d’un système. La récente déclaration d’OpenAI concernant l’intelligence artificielle générale affirme qu' »à un moment donné, il pourrait être important d’obtenir un examen indépendant avant de commencer à former les futurs systèmes, et pour les efforts les plus avancés d’accepter de limiter le taux de croissance du calcul utilisé pour créer de nouveaux modèles ». Nous sommes d’accord. Et c’est maintenant qu’il faut agir.
C’est pourquoi nous demandons à tous les laboratoires d’IA d’interrompre immédiatement et pendant au moins six mois, la formation de systèmes d’IA plus puissants que GPT-4. Cette pause devrait être publique et vérifiable, et inclure tous les acteurs clefs. Si une telle pause ne peut être mise en place rapidement et spontanément, les gouvernements doivent intervenir et instaurer un moratoire.
Les laboratoires d’IA et les experts indépendants devraient profiter de cette pause pour élaborer et mettre en œuvre conjointement un ensemble de protocoles de sécurité communs pour la conception et le développement de l’IA avancée, rigoureusement contrôlés et supervisés par des experts externes indépendants. Ces protocoles devraient garantir que les systèmes qui y adhèrent sont sûrs au-delà de tout doute raisonnable 7, ce qui ne signifie pas une pause dans le développement de l’IA en général, mais simplement un recul par rapport à la course dangereuse vers des modèles de boîte noire toujours plus grands et imprévisibles, dotés de capacités émergentes.
La recherche et le développement dans le domaine de l’IA devraient être recentrés sur l’amélioration de la précision, de la sécurité, de l’interprétabilité, de la transparence, de la robustesse, de l’alignement, de la fiabilité et de la loyauté des systèmes puissants et modernes d’aujourd’hui.
Parallèlement, les développeurs d’IA doivent collaborer avec les décideurs politiques pour accélérer considérablement le développement de systèmes robustes de gouvernance de l’IA. Ceux-ci devraient au minimum comprendre : des autorités réglementaires nouvelles et compétentes dédiées à l’IA ; la surveillance et le suivi des systèmes d’IA hautement performants et des grands pools de capacité de calcul ; des systèmes de provenance et de filigrane pour aider à distinguer le réel du synthétique et pour traquer les fuites de modèles ; un écosystème robuste d’audit et de certification ; la responsabilité pour les dommages causés par l’IA ; un financement public robuste pour la recherche technique sur la sécurité de l’IA ; et des institutions dotées de ressources suffisantes pour faire face aux perturbations économiques et politiques considérables — en particulier pour la démocratie — que l’IA provoquera.
L’humanité peut jouir d’un avenir florissant grâce à l’IA. Ayant réussi à créer des systèmes d’IA puissants, nous pouvons maintenant profiter d’un « été de l’IA » au cours duquel nous récolterons les fruits de nos efforts en concevant ces systèmes pour le plus grand bénéfice de tous et en donnant à la société une chance de s’adapter. La société a mis en pause d’autres technologies aux effets potentiellement catastrophiques pour elle 8, et nous pouvons faire de même ici. Profitons d’un long été de l’IA et ne nous précipitons pas sans préparation vers l’automne.
Sources
- https://www.cnbc.com/2020/12/29/skype-co-founder-jaan-tallinn-on-3-most-concerning-existential-risks-.html
- https://www.cnbc.com/2018/03/13/elon-musk-at-sxsw-a-i-is-more-dangerous-than-nuclear-weapons.html
- https://www.cnbc.com/2017/08/11/elon-musk-issues-a-stark-warning-about-a-i-calls-it-a-bigger-threat-than-north-korea.html
- Bender, E. M., Gebru, T., McMillan-Major, A., & Shmitchell, S. (2021, March). On the Dangers of Stochastic Parrots : Can Language Models Be Too Big ? ?. In Proceedings of the 2021 ACM conference on fairness, accountability, and transparency (pp. 610-623).
Bostrom, N. (2016). Superintelligence. Oxford University Press.
Bucknall, B. S., & Dori-Hacohen, S. (2022, July). Current and near-term AI as a potential existential risk factor. In Proceedings of the 2022 AAAI/ACM Conference on AI, Ethics, and Society (pp. 119-129).
Carlsmith, J. (2022). Is Power-Seeking AI an Existential Risk ?. arXiv preprint arXiv:2206.13353.
Christian, B. (2020). The Alignment Problem : Machine Learning and human values. Norton & Company.
Cohen, M. et al. (2022). Advanced Artificial Agents Intervene in the Provision of Reward. AI Magazine, 43(3) (pp. 282-293).
Eloundou, T., et al. (2023). GPTs are GPTs : An Early Look at the Labor Market Impact Potential of Large Language Models.
Hendrycks, D., & Mazeika, M. (2022). X-risk Analysis for AI Research. arXiv preprint arXiv:2206.05862.
Ngo, R. (2022). The alignment problem from a deep learning perspective. arXiv preprint arXiv:2209.00626.
Russell, S. (2019). Human Compatible : Artificial Intelligence and the Problem of Control. Viking.
Tegmark, M. (2017). Life 3.0 : Being Human in the Age of Artificial Intelligence. Knopf.
Weidinger, L. et al (2021). Ethical and social risks of harm from language models. arXiv preprint arXiv:2112.04359.
- Ordonez, V. et al. (2023, March 16). OpenAI CEO Sam Altman says AI will reshape society, acknowledges risks : ‘A little bit scared of this’. ABC News.
Perrigo, B. (2023, January 12). DeepMind CEO Demis Hassabis Urges Caution on AI. Time.
- Bubeck, S. et al. (2023). Sparks of Artificial General Intelligence : Early experiments with GPT-4. arXiv:2303.12712.
OpenAI (2023). GPT-4 Technical Report. arXiv:2303.08774.
- Il existe de nombreux précédents juridiques — par exemple, les principes de l’OCDE relatifs à l’IA, largement adoptés, exigent que les systèmes d’IA « fonctionnent de manière appropriée et ne posent pas de risque déraisonnable pour la sécurité ».
- Le clonage humain, la modification de la lignée germinale humaine, la recherche sur le gain de fonction et l’eugénisme en sont des exemples.