Technologie

1 — Comment définir l’IA ?  

Le terme Intelligence artificielle a été introduit en 1956 par les chercheurs américains Marvin Minsky et John McCarthy au cours d’une école de recherche d’été au Dartmouth College (Hanover, New Hampshire, États-Unis). Bien qu’il n’existe pas de définition stricte faisant consensus, on appelle généralement « IA » la capacité pour une machine d’accomplir des tâches assumées par des humains. 

Cependant cette définition demeure trop imprécise pour les experts qui utilisent généralement un vocabulaire plus spécifique pour désigner et classifier ces programmes informatiques en fonction de la nature des algorithmes utilisés (par exemple systèmes experts, hybrides, neuronaux, adversariaux, génératifs etc..) ou de leur cas d’usage applicatif (agent conversationnel, système de reconnaissance faciale ou de caractères, système de recommandation etc..). De même, le législateur a également du mal à établir un consensus sur la définition de l’IA. Ainsi, la définition de l’IA dans la proposition de régulation des systèmes d’IA par le Parlement européen (IA Act), n’a eu de cesse de changer pour tenter de distinguer cette technologie de rupture des logiciels informatiques traditionnels1. Il est difficile pour des institutions de stabiliser une taxonomie et des définitions pour désigner des systèmes dont les capacités évoluent rapidement. Ainsi, l’une des définitions que donne l’OCDE2 ne mentionne pas les systèmes génératifs capables de produire des contenus textuels ou d’images nouveaux — par opposition aux systèmes d’IA dits prédictifs spécialisés pour la reconnaissance de forme ou l’ajustage de courbe afin d’effectuer des prédictions.

2 — Quelques dates clefs dans l’histoire de l’IA

Depuis la fin des années 1940, l’histoire de l’IA entremêle les périodes de fulgurances technologiques et de désintérêts. Les périodes de désintérêt sont appelées « hivers de l’IA ». Ainsi, au milieu des années 1970 et à la fin des années 1980, le narratif glorieux autour de l’IA ne reflète pas les réalisations concrètes de la technologie réellement déployées dans l’industrie de l’époque, induisant une diminution drastique des financements et un désintérêt global pour la technologie.

Bien qu’il n’existe pas de définition stricte faisant consensus, on appelle généralement « IA » la capacité pour une machine à accomplir des tâches généralement assumées par des humains.

Victor Storchan

Comme en littérature, les périodes de fulgurances technologiques vont de pair avec une succession de courants d’idées sur la meilleure manière de développer des systèmes d’IA performants. Ainsi, les années 1940-1950 voient l’avènement de la cybernétique et de la machine adaptative. Wiener applique notamment la théorie du contrôle et des systèmes dynamiques pour développer des systèmes de défense anti-aérienne afin de corriger en temps réel les erreurs de prédiction de trajectoire et guider les missiles. Ces idées seront reprises beaucoup plus tard pour développer les systèmes de neurones profonds.

En 1956, Minsky et McCarthy introduisent le terme d’IA comme matière scientifique et mettent l’IA symbolique, basée sur la logique, au cœur de la compréhension de l’intelligence. C’est l’âge des systèmes experts basés sur des cathédrales de règles logiques mais sans véritable notion d’apprentissage. L’ingénieur s’assoit avec l’expert, un médecin par exemple, et essaye de déduire une série de règles logiques qu’il combine pour fabriquer le système — analyser des symptômes, détecter une tumeur etc… Ces systèmes sont petit à petit tombés en désuétude. Dans les années 1990, les premiers réseaux de neurones apparaissent et sont utilisés pour reconnaître les chiffres dans les chèques mais ce n’est qu’au tournant de l’année 2012 qu’ils établissent aux yeux de tous leur supériorité pour traiter les données textuelles, images ou audio abondamment présentes sur Internet et codées sous une forme purement numérique.

À cette période, les modèles atteignent des gains de performances significatifs sur la tâche pour laquelle ils sont entraînés mais demeurent inutiles en dehors de cette tâche.  Plus récemment, dans les années 2020, ces systèmes passent massivement à l’échelle et comportent, pour les plus grands, des centaines de milliards de paramètres (voire centaines de trilliards3) pour atteindre des performances inégalées. C’est l’ère des foundation models et des large language models. Le paradigme change et l’on observe empiriquement des phénomènes inédits, dits d’émergence : un même modèle est capable de réaliser avec succès une multitude de tâches et l’utilisateur interagit avec lui en langage naturel (anglais, français etc..). La puissance de calcul exponentielle nécessaire à l’entraînement de ces modèles double tous les 3-4 mois4.

Un même modèle est capable de réaliser avec succès une multitude de tâches et l’utilisateur interagit avec lui en langage naturel (anglais, français etc..). La puissance de calcul exponentielle nécessaire à l’entraînement de ces modèles double tous les 3-4 mois.

Victor Storchan

3 — Quelles caractéristiques rendent l’IA unique en tant que technologie ? 

L’IA est une technologie duale : ses applications sont dans un premier temps commerciales, développées par le secteur privé (GAFA, startups du numériques etc..) et les améliorations sont orientées par la demande des consommateurs et non plus par des directives gouvernementales — comme ce put être le cas pour des succès industriels tels que MBDA ou Airbus. Dans un second temps, le transfert de ces technologies pour des usages de défense ou de projection des puissances (domaine militaire, désinformation, surveillance) en font des vecteurs d’influence stratégique. Un modèle aidant à la découverte de nouveaux médicament peut par exemple être détourné de son usage premier pour aider à la fabrication d’armes biochimiques5.

L’IA est une technologie transverse : elle est d’application générale et peut être employée dans quasiment tous les secteurs de la société. Dans le domaine de l’intelligence artificielle, le mécanisme de réemploi ou de transfert de la technologie vers des usages variés est récemment entré dans une nouvelle dynamique. Aujourd’hui, la tendance est à l’émergence des large language models (LLM) pour chaque type de modalité — par exemple GPT-3 pour des données textuelles, VALL.E pour l’audio ou DALL.E pour les images. De ces modèles génériques gigantesques — plusieurs centaines de milliards de paramètres — découlent ensuite une myriade d’applications industrielles et commerciales finales.

L’IA est une technologie stochastique : ses résultats peuvent être liés à un certains nombres de processus aléatoires et ont donc partie liée avec l’incertitude de processus d’échantillonnage. Par exemple, dans le cas d’un système génératif de texte, on sélectionne des mots avec une certaine probabilité au cours du temps. Il peut donc être plus complexe de s’assurer de sa robustesse et de sa fiabilité que pour un logiciel traditionnel.

ChatGPT est  l’incarnation d’un changement de paradigme en IA et marque l’entrée dans l’ère de l’IA générative.

Victor Storchan

L’IA est une technologie centralisée : la prise de décision dans le développement des modèles est centralisée autour d’un petit nombre d’ingénieurs dans les startups qui innovent à la frontière technologique. Peu à peu, l’asymétrie de moyens s’est agrandie entre les laboratoires privés et la recherche universitaire. La recherche n’étant plus nécessairement soumise à la publication dans des conférences à comité de lecture, cela pose des problèmes de transparence quant aux capacités effectives de certains modèles d’IA.

4 — Qu’est ce que ChatGPT et que change GPT-4 ?

ChatGPT, l’agent conversationnel d’OpenAI, est  l’incarnation d’un changement de paradigme en IA et marque l’entrée dans l’ère de l’IA générative et des large language models. Auparavant, on entraînait un modèle pour une tâche donnée : classer des images, traduire du texte, jouer au Go, etc. Au-delà de la tâche pour laquelle ils étaient entrainés, ces systèmes s’avéraient totalement inutiles. À l’inverse, ces large language models ne se contentent pas de générer du texte syntaxiquement correct mais possèdent d’autres facultés dites émergentes que les modèles de plus petites tailles ne possèdent pas. Ils sont performants pour effectuer des tâches sur lesquels ils n’ont pas été entraînés a priori et sont ainsi capables de généraliser, simplement à partir de quelques exemples écrits en langage naturel (en français ou en anglais, par exemple). 

Leurs performances s’améliorent lorsqu’on leur donne un exemple de raisonnement logique aidant à la résolution. À cet égard, ils jouent un rôle semblable à celui d’un compilateur informatique : traduire un programme au niveau en instruction exécutable par une machine. Dans le cas des large langage models, ces nouveaux types de compilateurs sont programmables non pas avec du code informatique mais avec notre langage naturel. Andrej Karpathy, un directeur d’équipes d’ingénieurs chez Tesla et OpenAI résume ainsi l’idée : « L’anglais est devenu le nouveau langage de programmation ». Les utilisateurs interagissent avec ces programmes via une interface de dialogue. La qualité du dialogue a mené un ingénieur de Google à expliquer que le prototype développé par l’entreprise était doté d’une conscience. Au delà de l’anecdote, l’évaluation de ces systèmes est essentielle et il est primordial de distinguer les capacités de langage de ces systèmes et la pensée : bien que présentant des compétences linguistiques formelles, les compétences fonctionnelles de ces modèles — raisonner sur le monde, comprendre des éléments de logiques formelles, poser des questions pour clarifier un point — sont pour l’instant limitées et sources de beaucoup d’erreurs factuelles (hallucinations) ou causales.

Bien que présentant des compétences linguistiques formelles, les compétences fonctionnelles de ces modèles — raisonner sur le monde, comprendre des éléments de logiques formelles, poser des questions pour clarifier un point — sont pour l’instant limitées et sources de beaucoup d’erreurs factuelles (hallucinations) ou causales.

Victor Storchan

GPT-4 est quant à lui le nouveau modèle multimodal (traitant le texte mais aussi les images) présenté en mars 2023 par la société OpenAI, capable d’assister l’humain dans une série de tâches toujours plus complexes. Selon la firme californienne, le modèle est capable de réussir une série variée de tests, tel que l’examen du barreau pour lequel il obtient des résultats supérieurs à 90 % des candidats humains ou les Olympiades de biologie, pour lesquelles il bat 99 % des candidats humains.

Récemment, d’autres acteurs se positionnent pour développer ces types de modèles tels que les sociétés DeepMind ou Anthropic, le laboratoire de recherche à but non lucratif Eleuther AI, des initiatives open source ou académiques. Les risques liés à ces systèmes sont aujourd’hui difficiles à évaluer et la façon de déployer ces systèmes — niveau d’accès et de contrôle du modèle par l’utilisateur — ne fait pas consensus.

© Ryoji Ikeda / Andrea Avezzu / La Biennale di Venezia / SIPA

Géopolitique de l’IA

5 — L’accroissement de la géopolitisation de l’IA

L’IA est une innovation de rupture capable de bouleverser des équilibres stratégiques et les marqueurs du techno-nationalisme sont de plus en plus présents sur la scène internationale cristallisant les tensions géopolitiques. Pour une nation, maîtriser l’IA constitue un enjeu géopolitique, comme en témoigne une fameuse formule de Vladimir Poutine : « le leader en intelligence artificielle dominera le monde ». Lorsque l’entreprise Naver, concurrent coréeen de Google, annonce pouvoir répliquer des modèles génératifs de texte aussi performants que leurs concurrents américains, le communiqué de presse précise que « contrairement au modèle GPT-3 centré sur l’anglais, cela signifie également sécuriser la souveraineté de l’IA en développant un modèle linguistique optimisé pour le coréen ». L’exemple chinois est également emblématique d’un nouveau techno-nationalisme : le ministère des sciences et technologies a ainsi établi une liste d’entreprises destinées à former une « équipe nationale pour l’IA » capable de projeter la puissance chinoise. 

Pour une nation, maîtriser l’IA constitue un enjeu géopolitique, comme en témoigne une fameuse formule de Vladimir Poutine : « le leader en intelligence artificielle dominera le monde ».

Victor Storchan

On observe en outre une géopolitisation croissante autour de l’open source6. La recherche chinoise dépend actuellement encore largement de l’open source américain selon les données fournies par le service d’hébergement de gestion de logiciel Github7. Le nombre de logiciels open source développés par des Américains et appréciés des chercheurs des deux pays — ils peuvent voter en donnant une note avec des étoiles, comme sur Amazon — est vingt fois plus élevé que celui des logiciels open source développés par les chercheurs chinois. La Chine cherche à s’émanciper de la plateforme américaine et à mener son propre agenda d’open source. Ainsi, la licence open source d’un des derniers modèles d’IA de l’université de Tsinghua contient une clause indiquant que le système « ne doit pas être utilisé pour des actions qui porteraient atteinte à la sécurité nationale de la Chine ou à son unité ». Pour naviguer dans ce nouveau contexte, les firmes d’IA de la Silicon Valley développent leur propre capacité d’analyse géopolitique avec la constitution d’équipes dédiées, chargées d’étudier des questions telles que l’anticipation et la réaction des acteurs géopolitiques aux développement de l’IA ou l’information et la préparation du monde aux avancées technologiques8

6 — L’affrontement entre la Chine et les États-Unis se cristallise autour des semi-conducteurs, composants critiques de l’IA

La confrontation entre la Chine et les États-Unis est structurante pour la course au leadership en IA. C’est pour cela que nous avons décidé de commencer la série avec un premier épisode, signé Giuliano Da Empoli, qui étudie la convergence énigmatique de cette course géopolitique, en la contextualisant et en prenant du recul9.

Les deux puissances technologiques ont choisi le terrain des semi-conducteurs, technologie « fondamentale » pour le développement de l’IA. En effet, la production des large language models bénéficie des capacités de calculs uniques des meilleurs supercalculateurs et les semi-conducteurs les plus avancés en sont un composant incontournable. La technologie la plus avancée des semi-conducteurs s’est placée au cœur de la double stratégie américaine de sécurisation de sa production et d’endiguement de la Chine. Les États-Unis se sont ainsi lancés dans une stratégie de leadership qui ne se contente plus de maintenir la supériorité américaine sur une ou deux générations de puces d’avance, mais s’assure d’un écart « le plus grand possible » avec la Chine. 

La bataille est d’ores et déjà engagée : le Chips and Science Act, plan de subvention de 52,7 milliards dollars annoncé en août 2022 par l’administration américaine précise que les entreprises bénéficiaires auront interdiction pendant dix ans d’investir pour la fabrication de semi-conducteurs en Chine. Par ailleurs, une série de nouvelles sanctions sont venues compléter le tableau en octobre 2022 visant à empêcher les principaux concepteurs américains de puces informatiques pour l’IA, tels que Nvidia et AMD, de vendre leurs composants avancés à la Chine. De plus, ces restrictions visent à empêcher les ressortissants américains — citoyens américains ou détenteurs de green card — de pouvoir soutenir le développement ou la production de semi-conducteurs en Chine sans licence. Au centre des tensions, la préservation de l’autonomie de Taiwan est cruciale pour les États-Unis. L’île abrite l’usine TSMC, leader mondial dans la fabrication des semi-conducteurs, fournissant plus de 90 % des composants les plus avancés, utilisés notamment dans les smartphones ou ordinateurs.

La bataille est d’ores et déjà engagée : le Chips and Science Act, plan de subvention de 52,7 milliards dollars annoncé en août 2022 par l’administration américaine précise que les entreprises bénéficiaires auront interdiction pendant dix ans d’investir pour la fabrication de semi-conducteurs en Chine.

Victor Storchan

7 — IA, guerre et hyperguerre

L’intelligence artificielle a désormais fait son apparition sur le champ de bataille, principalement pour accélérer le cycle de décision et la prise d’information. La guerre en Ukraine fournit un exemple particulièrement emblématique à cet égard. L’IA est actuellement utilisée par les armées russes ou ukrainiennes pour une série de tâches variées en support des soldats et de l’effort de guerre plus globalement. De l’analyse d’images satellitaires au logiciels de reconnaissance faciale en passant par les logiciels d’inspection des véhicules, de contrôle aux frontières, les campagnes de désinformation via les deep fakes et les systèmes de recommandation transformés en arme de propagande, l’IA est omniprésente. Le futur de la guerre pourrait  bien être celui de l’hyperguerre, un changement de paradigme dans la nature des combats du fait du déploiement de  systèmes d’armes létales autonomes — comme les robots tueurs . Aujourd’hui, la France a une doctrine claire en la matière : elle permet la recherche sur les modes de défense face à ces systèmes mais s’interdit d’en faire usage ou d’en développer, le maintien du contrôle humain étant un des piliers de sa stratégie en IA. Pour discuter de ces questions dans un format plurilatéral, le premier sommet international sur l’utilisation de l’IA dans la défense s’est tenu en février 2023 aux Pays Bas. La Chine et les États-Unis ont appelé, avec une soixantaine de pays, à un usage responsable de la technologie10.

L’intelligence artificielle a désormais fait son apparition sur le champ de bataille, principalement pour accélérer le cycle de décision et la prise d’information. En particulier en Ukraine.

Victor Storchan

8 — Quelle place pour l’Europe ?

L’Europe peine à se faire une place dans la course pour le leadership en IA, essentiellement structurée autour de la confrontation entre les États-Unis et la Chine. D’un point de vue industriel d’abord. Si l’Europe dispose du leader mondial en équipements lithographiques de pointe indispensables à la fabrication des semi-conducteurs dernière génération (ASML), dans la période récente, elle n’arrive plus à faire émerger des leaders technologiques internationaux. En 2020, aucune des dix plus grosses introductions en bourse d’entreprises technologiques n’est européenne11. En ce qui concerne les investissements, l’Europe a sous-investi en IA par rapport à ses concurrents. Le montant de  capital risque investi au cours des 5 dernières années correspond à une année d’investissements en capital risque en Chine ou aux États-Unis, soit 100 milliards de dollars. Depuis 2018, l’Europe s’est dotée d’un nouvel instrument, le « Conseil européen de l’innovation »12 dont l’ambition est de soutenir des besoins de financements de l’innovation de rupture : risque élevé, investissement de long terme, agilité et rapidité. Du point de vue de la formation initiale, l’Europe propose un nombre de masters en IA proche de celui des États-Unis mais est loin derrière en termes d’offres bachelor (environ 6 fois moins de programmes de bachelor). Plus généralement, des études réalisées sur des chercheurs européens en doctorat montrent que la motivation professionnelle est le facteur principal dans un choix de mobilité vers l’Amérique du Nord13.

© Ryoji Ikeda / Andrea Avezzu / La Biennale di Venezia / SIPA

Le futur de l’IA

9 — Quel est l’impact de l’IA sur l’emploi et le futur du travail ?

Les gains de productivité générés par l’IA ne vont cesser de s’accroître14 et peuvent entraîner une peur légitime de perte de statut pour des artistes, écrivains, ingénieurs ou médecins qui se sentiraient menacés de remplacement par la machine. La recherche montre pourtant qu’il ne faut pas opposer humain et machine et que les meilleurs résultats d’utilisation de l’IA sont obtenus lorsque l’humain coopère avec la machine. Ainsi, le radiologue est souvent plus efficace pour analyser une radio prétraitée par la machine15, le gain de temps pouvant être consacré au patient. Le progrès technique est aussi source de crise pour les secteurs obsolètes dont les produits vont être remplacés par les innovations. En lançant son smartphone, Apple a détruit une grosse partie de la valeur de Nokia, mais a permis de créer l’écosystème des applications mobiles qui représente aujourd’hui plusieurs dizaines de milliards de dollars.

L’IA transforme des disciplines très créatives comme le design ou le marketing alors que beaucoup d’experts pensaient que ces domaines seraient préservés.

Victor Storchan

Les nouvelles technologies ont toujours déplacé des métiers : on a assisté à l’avènement de l’ordinateur, d’Internet ou de la voiture… Ces exemples nous enseignent que le plus important pour la société ou l’industrie est d’accompagner le changement plutôt que d’essayer de lutter contre. Formuler des prédictions sur les types d’emplois les plus affectés par l’IA s’est jusqu’ici révélé être un exercice périlleux. En 2015, des spécialistes ont par exemple prédit la fin des radiologues remplacés par des systèmes d’IA en 202016. À l’inverse, l’IA transforme des disciplines très créatives comme le design ou le marketing alors que beaucoup d’experts pensaient que ces domaines seraient préservés.

10 — Qu’est ce que l’intelligence artificielle générale ?

On distingue également les différents types d’IA en fonction de leurs capacités à bien exécuter une multitude de tâches plus ou moins complexes. L’IA faible, celle que l’on connaît aujourd’hui, est très utile pour exécuter certaines tâches très précises — reconnaissances de formes et ajustement de courbes, générations d’images et de textes — mais n’a pas de capacité d’autonomie comparable à l’homme, de planification à long terme ou de raisonnement propre. À l’inverse, l’intelligence artificielle générale (ou forte) désigne toute machine ou intellect qui dépasserait largement les performances cognitives des humains dans pratiquement tous les domaines d’intérêt. Bien qu’à l’heure actuelle, la technologie ne permette pas l’émergence de tels systèmes, des chercheurs en IA, des philosophes et des sociologues réfléchissent déjà à la sécurisation à long terme de ces systèmes et à la meilleure façon pour s’assurer que les valeurs ou les préférences apprises par ces derniers soient alignées avec celles des humains.