Depuis six mois que Trump est au pouvoir, l’inquiétude quant à la possibilité que les grandes entreprises technologiques américaines mettent leur puissance au service d’une politique de prédation en Europe n’a cessé de croître. Dans ce contexte, l’Union revendique une forme d’indépendance numérique : que lui répondez-vous ?
Notre présence en Europe remonte aux toutes premières années de l’entreprise lorsque, au début des années 1980 nous avons lancé notre premier logiciel dans une langue autre que l’anglais : une version de Microsoft Word disponible alors en allemand et en français.
Depuis, le continent a représenté une composante essentielle de notre croissance et de notre implantation mondiale. Aujourd’hui, environ un quart de notre activité globale se situe ici et nous sommes présents dans chacun des États-membres.
Faire partie de l’économie européenne et soutenir la culture européenne, c’est une nécessité économique pour Microsoft.
Mais vous avez raison : la relation entre l’Europe et les États-Unis a changé entre 2024 et 2025.
Si les interrogations sur le rôle des entreprises américaines ne sont pas nouvelles — particulièrement dans certains secteurs stratégiques à l’instar de celui des industries culturelles comme celle du cinéma, nous devons aujourd’hui nous adapter aux préoccupations exprimées en Europe.
En 2025, elles portent sur une exigence claire de souveraineté numérique, à l’échelle des États-nations comme à celle du continent.
Notre responsabilité est donc de démontrer notre volonté d’avoir un rôle constructif et respectueux de la souveraineté européenne.
Faire partie de l’économie européenne et soutenir la culture européenne, c’est une nécessité économique pour nous.
Brad Smith
Concrètement, comment ?
Cela passe d’abord par le respect du droit européen. Nous ne cherchons pas à nous y soustraire, au contraire : nous nous inscrivons dans son cadre.
Cela implique aussi un engagement concret à investir en Europe — à travers la construction de centres de données, mais aussi par notre action en faveur de la cybersécurité, de la protection de la vie privée, de la résilience numérique, et plus largement, de l’économie et de la culture européennes.
Cela ne signifie pas que l’Europe doive se tourner exclusivement vers nous. Ce serait une erreur — à la fois irréaliste et peu souhaitable.
Nous avons toutefois un rôle à jouer pour convaincre les citoyens européens comme leurs représentants politiques de nos intentions.
Comment être certain qu’en Europe des acteurs comme votre entreprise ne cherchent pas à imposer une situation de dépendance aux produits numériques américains ?
C’est précisément ce que nous essayons d’éviter.
D’abord en garantissant que les règles européennes s’appliquent aux acteurs technologiques présents en Europe à travers le Digital Markets Act (DMA).
Contrairement à d’autres, nous soutenons le droit européen, et nous avons été très explicites à ce sujet.
Nous considérons le DMA comme une législation constructive. Elle établit des règles claires qui s’appliquent à tous. Deux de nos produits sont actuellement soumis au DMA — Windows et LinkedIn. Et s’ils ne font pas l’objet de davantage de controverses à Bruxelles, c’est parce que nous avons appris à comprendre et à vraiment écouter le régulateur européen, en effectuant les changements nécessaires pour être en totale conformité avec le droit de l’Union.
Le second levier consiste à stimuler la création d’opportunités pour les acteurs européens. Nous avons été très clairs quant aux principes de fonctionnement de nos infrastructures et de nos plateformes. Nous sommes engagés à investir des milliards de dollars dans des infrastructures à travers l’Europe, non seulement pour opérer nos propres services, mais aussi pour les développeurs open source, pour toute entreprise, développeur d’applications ou institution qui souhaitent créer un modèle ou une application d’IA, ou simplement utiliser les services cloud à disposition. Et nous le faisons selon des conditions qui garantissent l’équité et évitent le lock-in, garantissant ainsi la compétition et l’indépendance.
Par ailleurs, nos technologies sont disponibles sous différentes formes pour ceux qui désirent en profiter.
Elles sont bien sûr disponibles dans notre propre cloud public.
Contrairement à d’autres, nous soutenons le droit européen.
Brad Smith
Mais elles sont aussi disponibles à travers ce que nous appelons des private sovereign clouds : si une administration locale souhaite gérer son propre centre de données, mais y intégrer notre technologie, elle peut le faire. Ces partenaires nationaux comprennent certaines très grandes entreprises, comme SAP, Orange ou Capgemini, mais aussi des entreprises plus petites à travers l’Europe qui souhaitent s’associer à nous.
D’une certaine manière, nous voulons construire une plateforme ouverte permettant à qui le souhaite de s’y greffer. Si vous souhaitez créer une application, une plateforme, un modèle de langage, vous en avez la possibilité sur nos plateformes. Je suis convaincu que cela contribue à la richesse de la technologie numérique européenne.
Voilà pour le marché. Mais comment s’assurer que le contenu réponde aux attentes légitimes des Européens et ne soit pas façonné par une vision américaine du monde ?
Nous avons beaucoup travaillé pour répondre aux attentes des Européens.
Il y aurait d’ailleurs de quoi s’inquiéter si une entreprise américaine arrivait en Europe affirmant vouloir racheter le contenu européen et se l’approprier.
Nous cherchons à faire exactement le contraire. Nous proposons du contenu dans les langues européennes, nous créons du contenu dans les langues européennes et nous le mettons à la disposition de tous. C’est tout le sens de nos annonces cette semaine, à savoir nous assurer d’une plus grande diversité linguistique dans les modèles d’IA. Parmi les projets que nous soutiendrons, il y a celui d’investir dans la création d’un corpus de contenus audio dans une palette plus large de langues européennes et de le mettre à disposition des développeurs sur Hugging Face.
Nous avons également annoncé un partenariat avec le ministère de la Culture en France et l’entreprise française spécialisée dans la modélisation numérique du patrimoine Iconem pour créer un jumeau numérique de Notre-Dame, dont nous ferons don à l’État français.
Ce type d’initiative participe à ce que la richesse culturelle européenne soit représentée et accessible mais est surtout en cohérence avec notre propre héritage en Europe.
Vous avez parlé de votre compatibilité avec l’Europe : êtes-vous satisfait du tournant dérégulateur pris par Washington depuis six mois ?
Je ne souhaite pas commenter l’évolution du paysage réglementaire — que ce soit aux États-Unis ou dans un autre pays — car notre rôle en tant qu’entreprise consiste à nous adapter, à apporter notre soutien et à nouer des partenariats lorsque cela est possible ou de prendre nos distances avec les autorités locales, y compris américaines, si cela s’avère nécessaire.
Nous portons notre attention sur des sujets précis et ne réagissons pas à une perspective d’ensemble — par nature très volatile.
Nous espérons vivement que la future réglementation en matière d’IA ne cherchera pas à reproduire les plafonds à l’exportation, qui sont néfastes pour nos activités.
Brad Smith
C’est-à-dire ?
La situation évolue très vite et l’administration Trump n’en est encore qu’à ses débuts. Nous attendons donc de voir ce que sera la régulation qui succédera aux executive orders du Président Biden.
Nous considérions certains des éléments de l’AI diffusion rule de l’administration Biden comme raisonnables — d’autres nous semblaient contre-productifs.
Une fois les nouveaux éléments rendus publics, nous les analyserons et déciderons quoi en penser.
Entrons dans le détail : quels sont les éléments de l’AI diffusion Act que vous considériez contre-productifs ?
Nous étions très préoccupés par l’imposition de plafonds quantitatifs à la diffusion mondiale de capacités avancées en intelligence artificielle. C’était une erreur et je pense que cela a nui aux relations entre les États-Unis et l’Europe.
À cet égard, l’année 2025 avait mal commencé.
De nombreux gouvernements européens étaient préoccupés et perplexes quant aux mesures prises par l’administration américaine au cours des dernières semaines du mandat de Joe Biden — et quant à leurs motivations.
Nous espérons vivement que la future réglementation ne cherchera pas à reproduire ces plafonds qui sont néfastes pour nos activités. Notre métier consiste à fournir des technologies sur lesquelles nos clients doivent pouvoir compter : l’imposition d’un plafond quantitatif accroît le risque de pénurie sur le marché, ce qui nuit à notre capacité à nourrir la confiance de nos clients.
Et les bons côtés ?
Je pense notamment à certaines normes en matière de cybersécurité et de sécurité physique qui semblent logiques à l’ère de l’IA.
Il est souhaitable que les États-Unis se dotent d’un régime de contrôle des exportations qui autorise de manière générale l’exportation des GPU et des modèles d’IA — tout en exigeant qu’ils soient exploités dans des centres de données sécurisés physiquement et numériquement.
Il me semble enfin raisonnable de prendre certaines mesures si vous exploitez un cloud afin de garantir que ce cloud et les services d’IA qu’il opère ne puissent pas être utilisés, par exemple, pour provoquer la prochaine pandémie ou pour créer une arme nucléaire, pour se livrer à des activités frauduleuses à l’encontre de personnes âgées ou exploiter des enfants.
Tous les acteurs du secteur doivent lutter contre l’arsenalisation de l’IA. Certaines parties du AI Diffusion Act constituaient la base de ce combat — et je pense que ces éléments ont beaucoup de sens.
L’arsenalisation de l’IA — n’est-ce pas précisément ce qu’essaye de faire Trump et qui constitue aujourd’hui le véritable risque pour la relation transatlantique ?
Il faut prendre du recul et examiner plus largement le paysage juridique et politique, notamment autour de la liberté d’expression. Nous devrions toujours nous rappeler que les similitudes entre les États-Unis et l’Europe en la matière l’emportent grandement sur les différences, qui reflètent, quant à elles, les histoires des deux pays.
Il est souhaitable que les États-Unis se dotent d’un régime de contrôle des exportations qui autorise de manière générale l’exportation des GPU et des modèles d’IA — tout en exigeant qu’ils soient exploités dans des centres de données sécurisés physiquement et numériquement.
Brad Smith
Sur une échelle globale, les États-Unis se situent probablement à une extrémité du spectre par leur défense d’une conception de la liberté d’expression presque illimitée — notamment en ce qui concerne le rôle traditionnel du gouvernement dans le contrôle de cette liberté.
En quel sens ?
Je pense que l’administration actuelle préférerait que les entreprises technologiques s’inspirent du premier amendement et s’abstiennent de limiter la liberté d’expression. Cela reflète l’histoire des États-Unis et l’héritage de la guerre d’indépendance américaine — qui était une réaction à ce que les Américains considéraient comme une censure de la parole par le roi et les Britanniques en Amérique. Depuis lors, cet esprit fait partie de la culture américaine, politique et constitutionnelle.
L’Union européenne a été au contraire bâtie pour s’assurer que les excès de haine déclenchés par la liberté d’expression en Allemagne dans les années 1930 et qui ont bouleversé le continent en entraînant la mort de dizaines de millions de personnes ne se répètent jamais.
Ces différences expliquent pourquoi nous ne pouvons pas mener nos activités aux États-Unis de la même manière qu’en Europe.
Dans le premier cas, il nous faut le faire d’une manière qui reflète et respecte la Constitution, les lois et la culture américaine ; et dans le second, il faut le faire en Europe d’une manière qui reflète la culture politique, les lois et les valeurs européennes.
Ce sera forcément différent, et ce n’est pas grave.
Les deux continents ont prospéré grâce aux relations commerciales transatlantiques, à travers des investissements communs. Nous avons combattu ensemble pour le droit d’autres peuples, malgré des approches parfois légèrement différentes.
Il est aujourd’hui essentiel de commencer par un effort de mémoire et d’apprentissage sur ce qui nous unit, sur ce qui nous différencie et sur la manière dont nous pouvons être alliés et amis sans être identiques.
Vous avez parlé de la liberté d’expression. Il y a au moins deux autres valeurs transatlantiques aussi fondamentales, voire même encore plus : la démocratie et l’État de droit. Comment s’assurer que les modèles d’IA les respectent à l’ère Trump ?
Le respect de l’État de droit fait partie intégrante de la culture de Microsoft. Nous croyons que personne ne doit être au-dessus de la loi, que ce soit un individu, une entreprise, un gouvernement — ou un produit.
Notre approche commerciale repose sur l’exercice de nos activités dans le respect de l’État de droit, partout où nous sommes présents.
Cette raison d’être nous différencie de nombreuses autres compagnies du secteur.
Certains pensent que le Digital Market Act s’apparente à un droit de douane ou à une taxe.
Nous ne sommes pas d’accord : il ne s’agit ni d’un droit de douane, ni d’une taxe. C’est un régime réglementaire visant à faire appliquer les règles de concurrence dans toute l’Union européenne.
Alors que certaines entreprises s’opposent à l’AI Act européen en mobilisant des registres de langage similaire à celui qu’elles utilisent s’agissant du DMA, nous adoptons une approche différente. Nos produits doivent toujours être soumis à l’État de droit en Europe. Il s’agit d’un principe fondamental.
Nous sommes conscients de notre matrice internationale et aspirons à être très respectueux des autres.
Tous les acteurs du secteur doivent lutter contre l’arsenalisation de l’IA.
Brad Smith
Ne craignez-vous que l’administration Trump poussent les entreprises de la Tech qui ont une vision plus politisée du rôle de l’IA ?
Mon rôle n’est pas de commenter les possibles choix du gouvernement américain.
Nous avons un avis sur la bonne approche à adopter aux États-Unis : voir l’État de droit fonctionner correctement dans notre pays. Ces six mois d’administration Trump ont montré une chose : l’indépendance et l’impartialité des tribunaux américains qui sont un bon indicateur de la force de l’État de droit. Jusqu’à présent, l’administration reste soumise à la justice : il lui arrive de gagner dans certains cas, mais aussi de perdre. C’est un signe que l’État de droit continue à s’exercer.
Nous fournissons des services IA en Europe sous une forme qui non seulement répond aux exigences légales européennes, mais qui respecte également la culture européenne, et nous devons bien sûr fournir une IA aux États-Unis dans des conditions conformes à la législation américaine. Je pense qu’en tant qu’entreprise américaine, nous avons parfois davantage l’occasion de nous exprimer. Et nous n’hésiterons pas à faire entendre notre voix si nous devons constater une dérive.
Pour certains, l’IA n’est pas juste un modèle économique, c’est un modèle social, une vision du futur. Quelles devraient être ses limites selon vous ?
Notre vision de l’IA et du rôle que nous avons à jouer repose sur la mission que nous avons définie pour notre entreprise il y a plus de dix ans : nous innovons et créons de nouvelles technologies pour donner aux individus les moyens de réaliser leurs ambitions dans leur vie personnelle comme dans leur vie professionnelle.
Nous nous efforçons de développer des plateformes technologiques sur lesquelles tout à chacun peut construire son avenir. Par définition, cela signifie que les technologies que nous développons sont non seulement soumises à l’État de droit, mais aussi, plus fondamentalement, au contrôle humain.
Si une technologie ne contribue pas à améliorer la condition humaine, il faut sérieusement s’interroger sur son utilité sociale.
Notre vision nous pousse à réfléchir aux limites de la technologie, et nous sommes conscients qu’elle sera toujours à la fois un outil et une arme.
Ces questions concernent les produits et les technologies, mais également la culture, les habitudes, les normes sociales, le droit et la politique.
Sur l’IA, nous pensons que certaines des questions les plus fondamentales ne sont pas seulement celles liées à la culture au sens large et aux normes politiques d’une société démocratique, mais aussi à des questions économiques très pratiques et importantes, comme : l’IA doit-elle être développée pour surpasser les humains ou pour aider les humains à mieux vivre ? Doit-elle remplacer les humains au travail ou leur permettre d’accéder à de meilleurs emplois et à de meilleures carrières ?
Dans chaque cas, nous sommes fermement convaincus que l’être humain doit toujours passer avant la technologie. Cela peut sembler banal mais ce n’est pas le cas.
Ce n’est en tout cas pas la vision de nombre d’accélérationnistes à Washington. Comment éviter que l’IA ne suive la même trajectoire que les réseaux sociaux ?
C’est effectivement toute la question.
Il y a encore 10 ou 15 ans, tout le monde pensait que les réseaux sociaux faciliteraient la mise en relation des individus et renforceraient la démocratie par des moyens innovants — un rôle qu’ils ont en partie joué. Dans le même temps, ils sont aussi responsables d’une forme d’isolement au sein des familles. Et les Etats autoritaires les instrumentalisent.
Aujourd’hui, la question de l’impact sociétal de l’IA devrait être au cœur des débats. Si les citoyens ne répondent pas eux-mêmes à ces questions, la technologie le fera à notre place. Ce serait une grave erreur.
Ces interrogations devraient être au cœur de la perception des logiciels par les utilisateurs.
Elles devraient imprégner la conception des produits par les ingénieurs et avoir un impact sur la manière dont les clients déploient les technologies d’IA.
Il y a deux semaines, nous annoncé la création du Microsoft AI Economy Institute. Son objectif est de soutenir des recherches universitaires indépendantes et rigoureuses sur des questions cruciales comme l’impact de l’IA sur le travail, la manière dont elle va changer les emplois et les compétences dont les gens auront besoin. Nous considérons donc que notre rôle est, au minimum, d’encourager le dialogue. Il y aura probablement des jours où des règles devront être élaborées pour nous contraindre — mais c’est le jeu.
Mais comme les réseaux sociaux, l’IA est un marché — considérable — avec des acteurs particulièrement agressifs. Tous ne partagent pas votre vision des choses. Est-il crédible de tenir sur ce marché en développant l’IA de la manière que vous venez de décrire ?
L’un des meilleurs moyens de réussir, quel que soit le marché concerné, reste la différenciation concurrentielle. Nous voulons développer une IA responsable qui améliore la condition humaine.
Si nous donnons le choix aux consommateurs et que nous leur montrons une voie responsable, tout le monde n’adoptera peut-être pas nos solutions, mais nous serons, je pense, du bon côté de l’histoire.
Contrairement à l’administration Trump ?
Je vois les six premiers mois de Trump d’un œil un peu différent.
L’administration américaine souhaite moins de régulation : le gouvernement sera donc moins interventionniste dans la définition des business models et promeut la liberté d’entreprendre.
Les membres de l’administration des États-Unis avec lesquels je discute ne s’opposent pas à notre vision de l’IA. Ce qu’ils désirent avant tout, c’est que l’innovation progresse à un rythme rapide.
En ce sens, ils sont heureux de la diversité des approches économiques adoptées. Et je ne ressens aucune hostilité envers la liberté des entreprises de suivre la voie que je viens de décrire.
Mais il pourrait ne pas toujours en être ainsi…
Nous verrons.
Le mois dernier, une question intéressante a été soulevée à ce sujet : la loi fédérale doit-elle empêcher les États fédérés d’adopter des lois dans le domaine de l’IA ?
Notre position se distingue de celles des autres acteurs du secteur. Tandis que Meta et Google sont plutôt favorables à l’interdiction de toute législation non fédérale, notre position est plus nuancée. Nous pensons, par exemple, que les États fédérés ont un rôle essentiel à jouer dans la protection contre la fraude, la protection des consommateurs, la protection des enfants et la protection des personnes âgées. C’est le cas depuis longtemps.
Dans le même temps, le pays a besoin d’un ensemble unique de lois qui déterminent les protocoles ou processus de sécurité à appliquer avant la mise sur le marché. C’est fondamental. Nous avons besoin d’une IA sûre pour les mêmes raisons que nous avons besoin de bus scolaires sûrs pour nos enfants ou d’aliments sains dans nos supermarchés. La sécurité est un prérequis essentiel, quel que soit le produit — je pense que le marché et l’administration s’en rendront compte.