Après votre prix Le Monde-Cercle des Économistes du Meilleur Jeune Économiste 2021, vous avez enchaîné les sollicitations médiatiques. Mais l’objet de cette interview est de prendre un peu de recul pour évoquer ensemble votre recherche, votre vision de la discipline, et votre rôle d’économiste dans la cité. Je voudrais commencer par la recherche, le cœur de votre trajectoire. Si on classifie vos grands thèmes d’investigation, on pourrait dire qu’il y en a deux qui sont cruciaux : la question de l’inflation (et, plus généralement, de la mesure appropriée du bien-être réel des consommateurs, qui va au-delà des aspects nominaux) ; et celle de l’innovation (ce qui la détermine, ses conséquences, et ses implications pour les inégalités). Est-ce un résumé pertinent ?

Oui tout à fait, ce sont les thèmes centraux. Mais peut-être que ce qui justement est spécifique dans ma trajectoire de chercheur en économie, c’est que je couvre plusieurs thèmes : innovation, inégalités, inflation, et aussi des travaux sur le commerce international. Le fil conducteur de tout cela, c’est l’idée de rapprocher la micro et la macro, pour le dire très brièvement. On fait toujours cette distinction en économie : d’un côté les microéconomistes, et de l’autre les macroéconomistes, qui s’attaquent en quelque sorte à des problèmes différents (qui sont tous très importants). D’un côté, la microéconomie appliquée reste toujours très proche des données. Sa contribution fondamentale est de faire des liens de cause à effet, et de comprendre quels phénomènes causent quels autres phénomènes. C’est un pan très important de la discipline. Et l’autre, la macroéconomie, est traitée de manière plus théorique. L’enjeu central est de comprendre comment les décisions individuelles se combinent et s’agrègent, pour arriver à la situation d’équilibre général.

Très concrètement, j’ai vu ça durant mon doctorat. Typiquement, les étudiants se spécialisent, soit dans l’une, soit dans l’autre, ils prennent des cours différents, et donc leurs trajectoires divergent naturellement. Il existe des séminaires de macroéconomie et des séminaires de microéconomie, mais la discussion entre les deux n’est finalement pas si naturelle, ni si fréquente. Si je suis par exemple invité dans une université, on me demande de présenter mon papier dans le séminaire de micro (ça peut s’appeler « économie du travail », « économie publique »), ou alors dans le séminaire de macro (qui peut être « macroéconomie », « commerce international »,…). Pour le même article, il n’y a pas de séminaires communs.

Ce qui m’intéresse, c’est de travailler à l’intersection des deux. Ce qui m’a amené à ce croisement, c’est tout simplement la disponibilité croissante des données : le big data dont on parle tout le temps dans le secteur privé, qui permet aussi à mon sens de changer la donne en économie. Ça a été fait dans plusieurs disciplines comme en économie publique, en économie du travail, mais en restant du domaine des thèmes traditionnels de la microéconomie appliquée. J’ai appliqué ces méthodes intensives en données à d’autres thèmes qui sont plus « macro », comme les sources de la croissance, l’impact de différents chocs technologiques, des chocs de productivité sur les prix (et donc sur le bien-être), pour revenir à ce que vous disiez au début. Ce qui m’intéresse est d’utiliser des données « micros » pour à la fois changer le diagnostic sur les grands problèmes « macros » (croissance, commerce international, etc…), et puis aussi, parfois, trouver de nouveaux leviers d’action pour résoudre ces problèmes. Par exemple, avec le Conseil d’Analyse Économique, on a récemment travaillé sur la question de la résilience et sur les chaînes de valeur 1, pour vraiment caractériser dans les données les vulnérabilités auxquelles on fait face en France, et puis les solutions qu’on peut mettre en œuvre.

Ce qui m’intéresse est d’utiliser des données « micros » pour à la fois changer le diagnostic sur les grands problèmes «  macros » (croissance, commerce international, etc…), et puis aussi, parfois, trouver de nouveaux leviers d’action pour résoudre ces problèmes.

Xavier Jaravel

Cette interaction entre « macro » et « micro » nous amène à une première question. Si l’on prend le thème de l’inflation, de la mesure du bien-être, il en existe souvent deux approches – en particulier, en ce moment, dans les discussions qui portent sur la surchauffe éventuelle de l’économie américaine. La première méthode est très « macro » (courbe de Phillips, monétarisme) : « produit-on trop de masse monétaire », « la relance fiscale est-elle trop importante par rapport au potentiel de l’économie », « les pressions sur le marché du travail vont-elles relancer l’inflation » ? Et puis, il y a votre approche de l’inflation, qui agrège « de bas en haut » : elle part des chocs « micros » sur les différents secteurs, sur l’exposition aux évolutions technologiques, au commerce international… pour nous renseigner sur la dynamique de l’inflation agrégée. Est-ce que ces deux approches sont contradictoires ou réconciliables ?

Non, je pense que ces approches ne sont pas du tout contradictoires. En l’occurrence, vous faites référence au débat actuel sur le plan Biden, et à l’inflation qu’il pourrait causer. Si on regarde dans les mesures sectorielles d’inflation, on voit que l’inflation actuelle est tirée par quelques secteurs assez spécifiques. On peut voir que le diagnostic est plutôt de l’ordre d’une réponse à des chocs sectoriels (semi-conducteurs, impact sur la filière automobile), que de la nature d’une boucle prix-salaire généralisée, quand l’on s’attend tous à ce qu’il y ait une hausse de l’inflation, et donc que chacun augmente ses prix, les salaires augmentent, et après on est pris dans ce cercle vicieux basé sur les anticipations auto-réalisatrices d’une hausse de l’inflation. Je pense que les deux approches sont nécessaires : la macro pour faire le raisonnement sur ce que pourraient être les grandes causes de l’inflation, et puis la micro pour mesurer et faire le diagnostic.

Dans mes travaux, spécifiquement, j’ai regardé, dans le cadre des États-Unis, la mesure dans laquelle l’inflation est hétérogène entre ménages 2. De fait, elle l’est, ce que l’on ne peut pas voir lorsqu’on utilise des données trop macro, c’est-à-dire des données sectorielles. Par exemple, si on prend des grands secteurs comme l’alimentation, l’électronique, si on regarde des paniers de consommation, ils ne sont pas suffisamment différents d’un ménage à l’autre pour créer des grosses différences d’inflation. En revanche, si on utilise des données très détaillées – on revient au big data, la source est en l’occurrence des données d’entreprises de marketing ; on peut suivre au niveau d’un code-barres l’évolution des prix et des quantités achetées. Là on voit qu’il y a de grosses différences dans les paniers de consommation et dans les dynamiques de prix, qui apparaissent au sein des grosses catégories que je mentionnais précédemment.

Par exemple, les produits bio vont faire l’expérience de la déflation relative, ce qui crée des dynamiques d’inégalités, parce que ce sont les plus aisés qui achètent ces produits. Ensuite, on peut en tirer des conséquences pour les politiques publiques avec aux États-Unis, par exemple, les food stamps (« bons d’alimentation« , NDLR), qui sont des dispositifs importants de lutte contre la pauvreté, et qui sont actuellement indexés sur le panier de biens moyen. Ils vont prendre en compte les produits bio qui réduisent l’inflation, et pourtant ceux qui utilisent les food stamps n’achètent pas de produits bio : il faudrait avoir la bonne mesure de « leur » inflation. Si on fait les calculs, les food stamps devraient être réévalués d’environ 20 % pour avoir la même valeur réelle qu’il y a une dizaine d’années. On peut faire le calcul plus largement et ajuster le seuil de pauvreté, ce que j’ai fait avec une association aux États-Unis, le GroundWork Collaborative 3. On a trouvé qu’il existait une hausse de la pauvreté, qui nécessiterait un ajustement du seuil de pauvreté. Il y aurait environ 10 % d’individus en plus sous le seuil de pauvreté, parce que l’inflation est plus élevée qu’on ne le pensait pour les pauvres, ce qui correspond à environ 3 millions de personnes en plus qui auraient accès à tout une série de dispositifs, dont Medicaid en santé publique.

Cette inflation différentielle entre ménages, au cœur de votre principal article de thèse, vous l’avez introduite dans la réflexion économique, en tirant profit de nouvelles données de marketing, au niveau très granulaire du code-barre de produit et des acheteurs individuels. Je voudrais prolonger cette réflexion sur deux dimensions de l’inflation « vécue ».

La première concerne le contour du panier de consommation : comment peut-on introduire dans cette mesure le domaine des services, de l’éducation, de la santé, qui sont des biens souvent consommés (en particulier l’éducation supérieure), par des ménages plus aisés, et dont le prix, avec ce que l’on appelle parfois la maladie des coûts de Baumol, a pu augmenter rapidement au cours des dernières années ? Est-ce qu’introduire les services change vos conclusions, ou est-ce qu’au contraire cela les renforce ? La seconde porte sur l’introduction de la dimension spatiale, à savoir les inégalités de prix dans l’espace entre régions plus pauvres, villes plus pauvres, et villes plus riches. Est-ce que cette hétérogénéité géographique affecte le niveau des inégalités, et leur évolution au cours du temps ?

Sur la partie « reste du panier de consommation », au-delà des données de code-barres qui sont dans Nielsen, je le fais aussi dans le papier, avec les données les plus détaillées auxquelles j’avais accès à l’époque. Globalement, on voit toujours la même tendance, donc il reste vérifié que l’inflation est plus élevée pour les ménages moins aisés aux États-Unis. Cela étant, l’enjeu à mon sens est justement de réussir à obtenir des données plus détaillées dans les autres secteurs que mentionnés, ce sur quoi je suis en train de travailler. Sur la santé, on a des résultats préliminaires dont il est trop tôt pour les décrire, mais les données existent : ce sont des données d’insurance claims (« requêtes de remboursement d’assurance », NDLR). On peut voir à un niveau très détaillé quel docteur, dans quel hôpital, quelle procédure a été utilisée… Là aussi on voit que la différence dans le panier de services de santé qui sont mobilisés, lorsqu’on a les données, émerge à un niveau très fin.

Pour les services, là on regarde des données de l’institut statistique aux États-Unis (Bureau of Labor Statistics) pour avoir des données détaillées. Globalement, on peut déjà faire beaucoup avec les données qui sont déjà disponibles, on peut aller plus loin, mais ce qu’on a est suffisant pour couvrir l’intégralité du panier de biens.

Sur la dimension spatiale, c’est quelque chose auquel je me suis moins intéressé directement, ce serait intéressant de le faire. En revanche, ce que je peux souligner est que l’on peut mettre de côté les questions de revenus, d’hétérogénéité spatiale, et simplement regarder l’hétérogénéité globale entre ménages, qui est très élevée. L’écart-type (écart moyen à la moyenne, NDLR) de l’inflation est de l’ordre de trois points de pourcentage, alors que l’inflation moyenne est entre deux et un pour cent, c’est donc parfois très élevé. Cette hétérogénéité est présente aux États-Unis, mais aussi en France, et dans la plupart des pays, alors que savoir si l’inflation est plus élevée pour les plus pauvres dépend du pays. En l’occurrence, c’est le cas aux États-Unis, mais ça a l’air d’être beaucoup moins le cas en France. A nouveau, je dis ça sur la base de résultats préliminaires.

Le cœur de vos résultats, était de montrer que, parce qu’il y a de l’innovation, de l’introduction de nouveaux produits parmi ceux consommés par les ménages les plus aisés, l’inflation mesurée surestime l’inflation réelle du panier de biens des ménages les plus aisés, et sous-estime celle à laquelle sont confrontés les plus pauvres.

Ça illustre un point plus général : dans certains cas, avec ces données micro, on arrive à mieux rendre compte du ressenti des individus. Dans d’autres cas, on trouve des résultats assez surprenants, par exemple sur l’automatisation 4. Dans le cas de l’inflation, ça renforce ce que l’on entend parfois qui consiste à dire qu’on mesure mal l’inflation : en fait on a chacun une inflation très différente.

Ce travail sur l’inflation, sur l’hétérogénéité, illustre je pense l’idée générale que je poursuis avec le va-et-vient entre la micro et la macro. La micro permet un nouveau diagnostic : l’hétérogénéité de l’inflation. Ensuite, j’ai amené un raisonnement macro pour l’expliquer, et comme vous le rappeliez, j’ai lié ça aux dynamiques d’innovation. L’idée est qu’aux États-Unis les inégalités sont en hausse, ce qui crée une demande plus forte pour les produits de plus haute qualité (les produits premium). Ça crée des incitations pour rentrer sur ces segments de marché pour augmenter la concurrence pour innover, ce qui crée ces divergences d’inflation. Par exemple, dans les produits bio, il y a de plus en plus de producteurs qui ont fait l’effort pour avoir les bonnes certifications bio, etc.

Ce travail sur l’inflation, sur l’hétérogénéité, illustre je pense l’idée générale que je poursuis avec le va-et-vient entre la micro et la macro. La micro permet un nouveau diagnostic : l’hétérogénéité de l’inflation. Ensuite, j’ai amené un raisonnement macro pour l’expliquer, et comme vous le rappeliez, j’ai lié ça aux dynamiques d’innovation.

Xavier Jaravel

Le raisonnement macro est utile, et il faut ensuite revenir à la micro pour tester ce raisonnement. Là en l’occurrence, c’est la question de l’effet causal d’une hausse de la demande sur les prix, ce que je teste dans le papier. Effectivement, on trouve qu’une hausse de la demande conduit à moyen et long terme à une baisse des prix via ces dynamiques d’innovation et d’entrée sur le marché. Ça remet en cause une hypothèse de base qu’on fait souvent en économie, qui est de dire que lorsque la demande augmente, les prix augmentent. C’est sans compter cet effet d’équilibre. Après, la dernière étape est d’en tirer des conséquences pour les politiques publiques avec les food stamps, le seuil de pauvreté, etc. Au passage (cela illustre la partie « causalité »), on a raffiné la technique économétrique dite du shift-share : cela montre que lorsqu’on écrit un papier, quelquefois on a besoin de développer des méthodes, ce qui donne lieu à un autre papier 5. Lorsqu’on résout une question, souvent on en ouvre plusieurs autres.

Nous anticipons sur la suite de notre entretien. Je voudrais revenir à une dernière question sur l’inflation, mentionnée en passant, qui est celle du ressenti et de l’aspect politique. Je voudrais lier ça à un autre de vos domaines de recherche, le commerce international. Dans la théorie la plus standard, il fait baisser les coûts des biens et des produits de consommation domestique, car ils sont importés à moindres frais. On sait que c’est un des aspects les plus controversés du commerce international, dans le sens où les gens sont très sensibles aux pertes d’emploi éventuelles induites par la compétition internationale, et moins sensibles (ou du moins font moins attention), aux éventuels effets positifs sur leur panier de consommation et sur son prix. Est-ce que votre recherche peut nous dire quelque chose de ce ressenti différentiel des effets du commerce international sur les salaires et les revenus d’une part, sur l’emploi d’autre part, et puis enfin sur les prix du panier de consommation ?

Peut-être, en commençant par la fin. Ce que j’ai fait, c’est effectivement essayer de quantifier l’impact sur les prix causé par l’entrée de la Chine à l’OMC 6 et la hausse subséquente du commerce entre les États-Unis et la Chine notamment (mais on observe des chiffres similaires pour la France). Le résultat est qu’il y a eu effectivement des baisses substantielles de prix induites par l’entrée de la Chine, et que le gros de cette baisse de prix se manifeste par un effet de concurrence : c’est-à-dire que cela se manifeste aussi et surtout par la baisse des prix des produits fabriqués sur le territoire national, aux États-Unis, ou en France. Ça rejoint la question du ressenti : il est plus difficile d’attribuer au commerce international la baisse du prix si le produit est fabriqué en France : son prix baisse, mais c’est à cause d’un effet d’équilibre, parce que c’est la concurrence avec la Chine qui conduit à la baisse du prix de ce produit.

Pour donner un chiffre dans le cas français, l’ordre de grandeur est qu’il y a eu une baisse des prix grâce à l’entrée de la Chine, et de la hausse du commerce avec le pays dans les années 2000. La conséquence a été une augmentation du pouvoir d’achat des consommateurs de manière globale de l’ordre de 30 milliards d’euros par an, sur la base de l’analyse causale que j’ai faite de la réponse des prix à l’entrée de la Chine. Cela étant, il y a d’autres études qui ont observé l’impact sur les emplois. En France, une étude de Clément Malgouyres sur les pertes d’emploi dues à la concurrence chinoise 7, qui est une hypothèse haute au sens où elle ne prend pas en compte les effets qui pourraient être positifs sur l’emploi via les exportations – la Chine peut aussi compter pour davantage d’exportations françaises. Si l’on ne prend que l’aspect le plus négatif, la conclusion est une perte d’environ 100.000 emplois, selon ces calculs. On a 30 milliards d’un côté qui sont globalement partagés de manière très large entre les consommateurs, et de l’autre 100.000 emplois perdus ; l’ordre de grandeur est donc de 300.000€ par emploi perdu. Aux États-Unis, où j’ai pu observer ça de plus près, en regardant aussi directement les données de l’emploi, on retrouve le même ordre de grandeur : c’est-à-dire de 300.000 à 400.000 $ par emploi perdu, au niveau agrégé. Ça ne doit pas faire perdre de vue la question des inégalités : les coûts sont très concentrés pour ceux qui perdent leurs emplois. Mais de l’autre côté, il y a des gains qui sont substantiels.

Je rajoute peut-être quelques points de diagnostic de manière un peu éparse. Il faut savoir quel consommateur bénéficie de ces baisses de prix. On se dit souvent qu’en Chine on ne trouve que des produits de faible qualité, donc ce sont plutôt les ménages à bas revenus qui vont en bénéficier. En réalité, il y a d’autres effets. Par exemple des consommations intermédiaires, des composants qui sont utilisés dans l’électronique, ou l’acier qui va être utilisé dans de nombreux secteurs ; globalement les effets de pouvoir d’achat sont donc assez équitablement répartis. C’est une conclusion à laquelle on est arrivé avec des données micro, et qui remet en cause certains résultats basés sur des méthodes plus théoriques.

L’autre point est que si l’on ne partait que du point de vue de la théorie, en fait on se serait attendu à un effet prix qui est de l’ordre de dix fois moindre que ce que l’on a vu dans les données. Au MIT, des travaux très intéressants d’Arnaud Costinot 8 permettent, sur la base de la théorie, de prédire la baisse de prix en fonction du changement des flux de commerce international. La logique est que si l’on voit qu’on achète davantage de biens de Chine, ça doit vouloir dire que les prix sont plus faibles ; et donc qu’on peut, grâce à la théorie, inférer le gain de pouvoir d’achat global. Mais en fait, dans ces modèles-là, il n’y a pas d’effet de concurrence. Il s’avère que cet effet a une grande influence sur les données, ce qui change assez fondamentalement la donne, notamment sur cet arbitrage, car si on le faisait sur la base de la théorie seule, on se dirait que l’arbitrage est de l’ordre de 30.000€ gagnés en pouvoir d’achat par emploi perdu. Il est intéressant de voir que nous avions obtenu le chiffre dix fois supérieur de 300.000€. Là, ça nous a permis de changer un peu le diagnostic sur le bon modèle à avoir en tête. En commerce international, le rôle de la concurrence en général n’est pas mis en avant, ou très peu, nous pensions à l’inverse que ça doit être une partie vraiment centrale de la théorie du commerce international.

Enfin, en théorie du commerce international, on essaye d’expliquer les flux de commerce international, et quels sont les facteurs qui amènent certains pays à se spécialiser dans certains produits plus que d’autres. L’approche dite “Hecksher-Ohlin-Samuelson” dit que ça a surtout trait aux salaires et aux facteurs de production. Nous voyons dans nos travaux que la force la plus importante est plutôt une force dite “ricardienne”, c’est à dire qu’il y a certains pays qui sont meilleurs dans certains secteurs plus que dans d’autres, mais ça ne tient pas fondamentalement aux différences de facteurs de production du type niveau d’éducation élevé ou faible. Ce que ça veut dire, concrètement, c’est que les effets sur les inégalités ne sont pas aussi concentrés qu’on pourrait le croire. Le commerce international redistribue les cartes, mais il les redistribue aussi un peu au sein même de tous les groupes de revenus. C’est le sujet d’un nouveau papier où l’on calcule la nature des effets distributifs du commerce international 9. Un exemple : on évoquait les services tout à l’heure. Si je travaille dans les services avec un revenu assez faible, je vais plutôt bénéficier du commerce international, car je vais acheter des biens manufacturés moins chers, et je ne suis pas en concurrence directe pour mon emploi. En revanche, si je suis à bas revenus dans le secteur manufacturier, là j’ai de la concurrence.

Ce que ça veut dire, concrètement, c’est que les effets sur les inégalités ne sont pas aussi concentrés qu’on pourrait le croire. Le commerce international redistribue les cartes, mais il les redistribue aussi un peu au sein même de tous les groupes de revenus.

Xavier Jaravel

Dans cette recherche à la lisière entre micro et macro, il y a aussi un aspect méthodologique : proposer des nouveaux outils empiriques, des techniques économétriques innovantes, avec vos co-auteurs. Vous réfléchissez notamment à la mesure causale de l’impact des phénomènes économiques, en utilisant l’exposition différentielle de régions ou d’industries à des chocs ; et à l’impact dynamique de ces chocs, à travers ce qu’on appelle les « études d’événements ». Quelle est la part de cette approche méthodologique dans votre recherche ? Comment nourrit-elle les questions plus concrètes, et est-ce une dimension plus difficile à communiquer à un plus grand public ?

En commençant par la fin, effectivement ! C’est quelque chose dont en l’occurrence je n’ai jamais parlé dans mes interventions à la suite de la remise du Prix, alors que c’est un point qui est important, qui revient à la question de la causalité. Savoir étudier les relations de cause à effet, c’est à bien des égards ce qui distingue le travail empirique des économistes de celui des statisticiens. La difficulté quand on s’intéresse aux questions macro, c’est que parfois on n’a pas tous les outils, parce que la macro ce sont les effets d’équilibre général. Quels outils peut-on vraiment utiliser pour avoir un effet causal pour cela ? Ce qui s’est passé dans mes travaux, c’est qu’en écrivant des papiers je suis tombé sur des problèmes méthodologiques, et que pour les résoudre j’ai écrit d’autres papiers. Sur les deux exemples que vous mentionnez, qui sont les principaux avec les event studies 10 (les études d’événements), et l’approche shift share, je dirais que la plus importante pour le lien macro est l’approche shift share 11 (« changement et exposition », NDLR). L’enjeu est d’avoir une mesure de l’effet causal, mais qui prend en compte certains effets d’équilibre. C’est-à-dire, dans le cas du commerce international, est-ce qu’une ville est exposée davantage qu’une autre à des chocs de commerce international parce qu’elle est spécialisée dans certaines industries plus que dans d’autres ? C’est une approche qui est importante, parce qu’elle permet de garder l’approche causale, mais avec un niveau d’agrégation suffisant qui tend vers l’équilibre général.

La raison pour laquelle il faut de nouveaux outils, c’est que pour les micro-économistes appliqués, l’approche classique consiste à prendre comme référence ce qu’on peut faire dans le domaine médical : un groupe de contrôle, et un groupe de traitement, indépendants. Le problème de la macroéconomie est précisément que rien n’est indépendant, puisque les décisions des uns et des autres se combinent. L’approche shift share vise à résoudre cela. On conserve l’hypothèse qu’il y a des chocs sous-jacents indépendants, et ensuite on voit leur impact sur l’économie, et on observe un peu la trace de ces chocs après tout le processus d’agrégation. C’est ce qu’on développe et qu’on utilise dans plusieurs papiers, sur l’inflation, et sur l’automatisation.

La discipline économique est un peu partagée aujourd’hui entre l’approche causale (qui est devenue parfois quasi-obsessionnelle en microéconomie appliquée, où on fait très attention à s’assurer qu’on mesure bien l’effet causal d’un phénomène sur un autre, et pas simplement des phénomènes associés pour d’autres raisons), et l’approche théorique, celle des modèles, qui a longtemps été dominante en économie en général. Aujourd’hui, comment analysez-vous la répartition entre travail de modélisation théorique, et travail d’évaluation empirique de la causalité ? L’un prend-il le pas sur l’autre, ou reste-t-il possible de les rendre complémentaires ?

Oui, mon cœur de métier est de les rendre complémentaires en partant des données. Avec le big data à très grande échelle on peut suivre des produits, des entreprises, des individus sur quasiment l’intégralité de l’économie, ensuite l’utiliser pour aller au niveau macro, avec ce va-et-vient. On fait des hypothèses, et après on les teste en revenant vers l’approche causale et la micro. Dans mes travaux c’est bien ça le cœur du sujet, ce va-et-vient entre la réflexion théorique et le travail sur les données. Si je devais spéculer, j’imagine que comme toute chose est souvent un mouvement de balancier, comme dans les années récentes où l’on s’est concentré sur la collecte de données à très grande échelle, la théorie va probablement jouer un rôle plus fort, mais une théorie appliquée qui sera très ancrée dans ces données. Peut-être dans les 10, 15, 20 prochaines années, verra-t-on davantage de travaux comme cela, qui font des innovations théoriques ou méthodologiques pour mobiliser au mieux ces données.

Dans mes travaux c’est bien cela le cœur du sujet, ce va-et-vient entre la réflexion théorique et le travail sur les données. Si je devais spéculer, j’imagine que comme toute chose est souvent un mouvement de balancier, comme dans les années récentes où l’on s’est concentré sur la collecte de données à très grande échelle, la théorie va probablement jouer un rôle plus fort, mais une théorie appliquée qui sera très ancrée dans ces données.

Xavier Jaravel

Ces nouveaux outils méthodologiques me permettent d’évoquer un deuxième grand thème de votre recherche : l’innovation. Là encore, vos résultats empiriques sont parfois surprenants, ou du moins en relative opposition avec l’intuition théorique, en particulier sur le rôle relatif dans le processus d’innovation des incitations financières et économiques, d’une part, et, de l’autre, l’exposition au cours du cycle de vie à l’innovation. Comment le cycle de vie des inventeurs détermine-t-il le fait de devenir un innovateur ? Est-ce que j’innove parce que c’est rentable, parce que je vais monétiser mes brevets, ou obtenir des crédits impôt-recherche divers et variés ? Ou est-ce autre chose qui va faire d’un jeune adulte un futur inventeur à succès ?

Dans ces travaux, on s’est posé la question de l’impact de l’inégalité des chances devant l’innovation, sur la quantité totale d’innovation. On part souvent du principe que l’innovation pourrait être le lieu de l’égalité des chances : si quelqu’un est très talentueux, quelles que soient les barrières qui seraient mises en face de lui ou d’elle, ces barrières seraient surmontées, et l’innovation sera concrétisée. Ce qu’on trouve dans les données 12, c’est qu’il y a une influence très forte du milieu, malgré le mythe de l’innovateur self-made man. Concrètement, on regarde la probabilité de devenir innovateur : les individus qui obtiennent des brevets – on peut aussi regarder les fondateurs d’entreprises, ce sont les mêmes résultats. Dans le cas américain, où on a fait la première étude, vous avez dix fois plus de chances de devenir innovateur si vos parents sont dans le top 10 % de la distribution des revenus, par rapport à quelqu’un issu d’une famille en-dessous de la médiane, et ce avec les mêmes performances en maths. Donc, pour être innovateur il faut être deux écarts-type au-dessus de la moyenne en maths, et venir d’une famille aisée ; il faut vraiment avoir les deux. Même au sein d’un groupe de revenus, si vos parents sont eux-mêmes innovateurs ou sont dans une entreprise avec des collègues qui ont des brevets, ou qui ont ensuite créé des entreprises, ça a un impact sur les choix d’innovation qui sont faits, sur la probabilité qu’on devienne soi-même inventeur dans les mêmes secteurs.

Pour avoir une idée des ordres de grandeur, on pourrait avoir un impact fort sur la quantité globale d’innovation, parce que l’innovation est très concentrée – ce que l’on appelle une loi de Pareto sur la productivité des innovateurs et l’impact de leurs inventions. Il y a un vivier de talents qui n’est pas mobilisé, des gens qui auraient eu les capacités pour devenir des innovateurs très productifs, mais qui ne le deviennent pas, au sommet de cette loi de distribution de Pareto.

C’est différent des modèles classiques d’économie (dits modèles Roy) ou l’individu choisit de manière rationnelle en fonction de ses talents, dans quelle voie se lancer. Dans ce type de modèle, s’il y a de la discrimination, ou un manque d’information relatif pour certains groupes, leur présence relative parmi les innovateurs va diminuer, mais les meilleurs vont quand même y aller parce qu’ils sont tellement bons, que quelles que soient les barrières, ils vont les surmonter. On trouve que ce n’est en fait pas le cas : les barrières découragent même les meilleurs, ce qui change le diagnostic, et nous conduit à conclure que l’on devrait axer une partie de la politique d’innovation sur ça. Ce sont des calculs que j’ai refaits par la suite en France, sur lesquels on travaille avec le Conseil d’Analyse Economique, et les ordres de grandeur sont les mêmes. En France, il est plus difficile de faire ce genre de travail, parce que les données sur la mobilité intergénérationnelle et le lien parent-enfant sont moins détaillées. On peut néanmoins faire une grande partie de l’analyse, et vérifier que ce sont les mêmes tendances qu’aux États-Unis.

Sur la partie comparaison avec les incitations financières, puisque c’était votre question précise, je passe très rapidement. On avance un point théorique 13 : les incitations financières, en fait, ne devraient pas avoir d’impact sur les tout meilleurs, puisque dans le modèle standard, si vous choisissez en fonction des incitations financières, vous vous dirigiez vers ce métier-là de toute manière. Dans notre approche, l’exposition à l’environnement peut avoir un impact pour attirer les tout meilleurs dans ces métiers-là en donnant l’info, l’envie de se projeter dans ce genre de carrière. Dans le cas français, vous évoquiez le crédit impôt recherche qui est très concentré sur les grands groupes, et qui était vu comme une manière de compenser un système fiscal qui est, par ailleurs, plus punitif qu’ailleurs, avec un impôt sur les sociétés plus élevé. Toutefois, au cours du temps, cette différence s’est réduite, et d’ailleurs il n’y a pas d’études qui montrent que le CIR a eu un impact important. La France fait donc un peu figure d’exception dans la générosité de ses dépenses fiscales pour l’innovation, et dans leur caractère très concentré pour les grandes entreprises – c’est pour ça qu’on peut penser qu’il y a possiblement des ressources à réallouer vers les innovateurs.

La France fait donc un peu figure d’exception dans la générosité de ses dépenses fiscales pour l’innovation, et dans leur caractère très concentré pour les grandes entreprises – c’est pour ça qu’on peut penser qu’il y a possiblement des ressources à réallouer vers les innovateurs.

Xavier Jaravel

Cette analyse coût-bénéfice m’amène au thème des politiques publiques, qui est un sujet important pour vous, y compris dans votre trajectoire personnelle au Conseil d’Analyse Économique, et désormais à l’Inspection Générale des Finances. En France, la politique de la recherche est dispersée entre incitations financières, à travers en particulier le crédit impôt recherche, la protection de la propriété intellectuelle, et un investissement dont on critique parfois le niveau dans l’enseignement supérieur et l’université. Si l’on voulait justement permettre à ces Einstein et Marie Curie perdus dont vous parlez d’émerger en France, sur quoi devrait-on mettre l’accent en termes de politique d’innovation ? Faut-il augmenter le budget des universités, changer leur gouvernance, réfléchir à de nouvelles politiques, peut-être inspirées de vos travaux de recherche, pour ne pas perdre ce potentiel d’invention aujourd’hui immergé ?

Si l’on prend comme point de départ cette idée qu’il y a beaucoup à gagner en favorisant l’innovation par tous, je pense qu’il y a plusieurs leviers qui sont déjà activés, mais en ordre un peu dispersé par des associations ou des régions. Un exemple c’est le mentorat, un autre ce sont les internats d’excellence. On peut aussi réfléchir à des ateliers qui seraient ponctuels, par exemple le programme “Chiche !” qui fait venir des scientifiques dans des classes de seconde.

Tous ces dispositifs-là sont intéressants, ce qu’on a en tête est de dire que, d’une part, ils devraient être davantage orientés vers l’innovation, dans cette perspective d’innovation par tous ; et qu’ils pourraient être aussi davantage ciblés sur les personnes qui sont dans leur environnement immédiat, moins informés sur ces questions-là, donc cibler par exemple les zones d’éducation prioritaire, dans certaines régions en particulier où il y a un gros vivier d’inventeurs non mobilisés. Il faut aussi que ce soit en amont. Beaucoup de ces dispositifs interviennent relativement tard dans la vie des gens. La plupart ont déjà fait leurs choix, ils sont déjà en première année universitaire, ou ont déjà l’envie de faire de l’entrepreneuriat. Nous pensons que ce qui manque vraiment est une politique plus en amont. Les idées existent déjà, mais il n’y a pas de budget unifié et de stratégie coordonnée pour faire tout ça, par exemple par la Banque Publique d’Investissement ou la Direction Générale des Entreprises.

Un ordre de grandeur : 100 millions d’euros par an pour coordonner tout ça. Récemment, le plan « 1 jeune, 1 mentor » qui n’est pas focalisé sur l’innovation, est de l’ordre de 40 ou 50 millions d’euros par an. Il faudrait à peu près le double de ça pour utiliser tous ces leviers de manière appropriée, et que l’on puisse espérer augmenter la croissance. Pour donner un ordre de grandeur, l’impact sur la croissance serait de l’ordre de 5 milliards d’euros par an, cumulatif à horizon 5-10 ans. C’est pour poser la mesure des grands enjeux de l’innovation par tous.

Enfin, il y a d’autres questions que vous mentionniez. Les incitations financières comme le CIR, ont plusieurs dispositions qui pourraient être diminuées : par exemple, le taux n’est pas vraiment incitatif pour les très grandes entreprises, donc même à enveloppe constante du CIR on pourrait réajuster le dispositif pour qu’il soit davantage incitatif. On évoquait la question de l’investissement public, qui pourrait être mené dans le cadre d’une institution qui serait plus portée vers la pluri-annualité, peut-être davantage indépendante des ministères, davantage d’inter-ministérialité… Et après, il y a toute la question de la gouvernance des grands instituts de recherche, qui est aussi importante, pas vraiment un enjeu immédiat d’innovation par tous, mais ce sont aussi des sujets essentiels.

On peut ici faire le lien avec votre propre carrière d’économiste, passé par des systèmes universitaires très différents : Sciences Po en France, Stanford et Harvard aux États-Unis, et maintenant professeur à la London School of Economics. Que tirer comme conclusions de ces expériences dans des systèmes universitaires très différents ? Qu’est-ce qui fonctionne ailleurs et devrait être adopté en France ? Qu’est-ce qui, au contraire, relève des succès de notre modèle universitaire et de recherche ? Sommes-nous trop obsédés par la comparaison avec les modèles étrangers, ou, au contraire, ne fait-on parfois pas preuve d’insularité dans l’organisation de notre recherche ?

Je voudrais peut-être mettre en avant deux points. Le premier relève peut-être plus de l’ordre du culturel : c’est la relation souvent verticale qu’on a en France en tant qu’étudiant face à son professeur, et qui n’est pas quelque chose qui amène vraiment à se tourner vers la recherche et vers l’innovation. Les démarches de recherche et d’innovation sont des démarches où on prend des risques, où l’on accepte de pas savoir, on tâtonne, on explore. Souvent, dans l’enseignement supérieur, secondaire, même primaire en France, on est plutôt dans une perspective de verticalité, où il y a un détenteur du savoir, et une bonne manière de faire qui est clairement identifiée. Ça me semble être la force du système anglo-saxon, qui a un rapport beaucoup plus direct entre étudiants et enseignants, et c’est notamment important pour la recherche. La différence est quand même assez frappante. De manière concrète, ça se manifeste par le fait qu’il y ait des office hours, des “heures de permanence” du professeur. Même lorsqu’on n’est pas un doctorant, on peut venir et parler au professeur des idées que l’on pourrait avoir, c’est ce que l’on fait aussi à la London School of Economics. À titre personnel, il y a aussi le fait qu’on peut travailler comme assistant de recherche pour son professeur, c’est beaucoup moins fréquent en France. Je n’aurais jamais fait de recherche sans ça. J’ai bénéficié d’un accord d’échange avec Harvard via Science Po, et ensuite j’ai travaillé comme assistant de recherche pour des professeurs quand j’étais là-bas, c’est comme ça que je suis entré là-dedans. J’avais toujours en tête l’idée de trouver une voie qui permettrait d’allier réflexion et action d’une manière ou d’une autre, finalement j’ai concrétisé ça avec l’économie. Ça s’est fait notamment par la rencontre avec certains professeurs, le fait de devenir leur assistant de recherche aux États-Unis.

Le deuxième point à mettre en avant, est que le monde anglo-saxon est très cosmopolite comme environnement. Dans mon département, à la LSE, il y a relativement peu d’anglais. Je pense qu’en France on s’inquiète beaucoup du départ des chercheurs à l’étranger. C’est une réalité, mais il y a un autre enjeu qui est d’attirer. C’est une vision plus offensive qui me semble essentielle, le fait qu’il faut pouvoir attirer dans notre écosystème. On peut se dire que c’est difficile en France, ne serait-ce qu’à travers la barrière de la langue, mais il y a quand même des exemples de grand succès. Par exemple, le programme sur la fusion nucléaire ITER est un grand exemple d’excellence, d’enjeu mondial, et qui est une coopération entre plusieurs pays, la France en est la figure de proue. Il faut garder cet horizon-là en tête. La recherche est un processus international, qui passe par des coopérations à grande échelle.

Je pense qu’en France on s’inquiète beaucoup du départ des chercheurs à l’étranger. C’est une réalité, mais il y a un autre enjeu qui est d’attirer. C’est une vision plus offensive qui me semble essentielle, le fait qu’il faut pouvoir attirer dans notre écosystème.

Xavier Jaravel

Vous avez donc été assistant de recherche et travaillé avec un certain nombre de mentors parmi les économistes les plus reconnus. Sans risquer de me tromper, je pense que Philippe Aghion ou Raj Chetty en font partie. Quel rôle ces mentors ont-ils joué dans votre carrière, dans le choix de vos domaines d’intérêt ; et quel rôle continuent-ils de jouer aujourd’hui pour un économiste plus mature dans la profession ?

Effectivement, ils ont joué un rôle absolument essentiel. Il y en a beaucoup d’autres, c’est pour ça que j’ai tendance à peu citer de noms parce qu’il y a tellement de gens qui ont compté pour moi, que je ne peux pas vraiment mettre en avant l’un plus que l’autre. J’ai eu beaucoup de chance en rencontrant des gens à différents moments, y compris pour faire le choix du doctorat. Je me rappelle les discussions avec des gens qu’on ne connaît pas forcément très bien, mais qui donnent la bonne information, et qui permettent de faire les bons choix, ce qui est relié à notre sujet précédent sur le fait de se projeter et de faire des choix en connaissance de cause.

Je pense que c’est toujours comme ça, en recherche comme en politique publique. C’est finalement un processus qui est toujours collectif, graduel, itératif. Ces mentors jouent toujours un rôle, de même que les assistants de recherche jouent aussi un rôle important. C’est comme ça que je le vois aujourd’hui, on travaille à différents bouts de la chaîne, chacun va avoir des informations, des perspectives un peu différentes. C’est en s’enrichissant mutuellement qu’on peut parfois innover et trouver de meilleures solutions, ou poser de meilleurs diagnostics.

Armé de ces nouvelles données, de cette théorie appliquée dans laquelle les modèles sont un peu mis à l’épreuve des faits, vous vous impliquez maintenant plus directement dans l’évaluation des politiques publiques, dans leur mesure, dans leur amélioration, avec le choix finalement très original pour un économiste nouvellement titularisé à la LSE, de rejoindre l’Inspection Générale des Finances. Quelles motivations ont déterminé ce choix ? Comment ce nouveau rôle, interne à l’administration, qui est moins l’œil extérieur du chercheur dans sa tour d’ivoire, nourrit-il votre recherche ? Comment concilier le temps long de la recherche, et celui, plus immédiat, de l’action, de l’évaluation et de la décision politique ?

Merci pour cette question. J’avais la conviction qu’il y a beaucoup à apprendre en faisant le lien entre recherche universitaire et politiques publiques, c’est maintenant une certitude après ce que j’ai vu. D’une part pour les universitaires, en travaillant au plus près des administrations, on peut mettre en œuvre des résultats qui viennent de sa recherche, mais on est surtout exposé à de nouvelles questions, ce qui peut faire naître de nouvelles problématiques de recherche importantes. De l’autre côté, l’administration peut mobiliser une expertise qu’elle n’a pas toujours en interne. D’un côté comme de l’autre, c’est du gagnant-gagnant.

Vous faites référence aux questions du temps long, et du temps court, c’est peut-être ça le cœur du sujet. C’est-à-dire que les universitaires ont le luxe de travailler sur le temps long, mais les réflexions ne sont pas toujours ancrées correctement dans le temps court. Il faut savoir quand il y a des opportunités pour agir, et c’est ce que fait l’administration. Elle répond aux questions qu’on lui pose, elle ne se pose pas de questions à elle-même. Les universitaires eux se posent leurs propres questions, mais peuvent être à contre-temps. Précisément à l’intersection des deux, les universitaires ont parfois travaillé pendant longtemps sur des sujets qui maintenant sont au cœur de l’actualité, donc on peut les mobiliser rapidement. Parfois ce n’est pas naturel car, comme la micro et la macro, la recherche et l’administration sont des mondes un peu différents, qui peuvent avoir tendance à se regarder en chiens de faïence, alors qu’en vérité ils sont tout à fait complémentaires.

Les universitaires ont le luxe de travailler sur le temps long, mais les réflexions ne sont pas toujours ancrées correctement dans le temps court. Il faut savoir quand il y a des opportunités pour agir, et c’est ce que fait l’administration.

Xavier Jaravel

La recherche en France est respectée, dans un pays à la longue tradition de grands scientifiques. Elle joue pourtant un rôle limité dans la prise de décision publique. Souvent, l’évaluation est mise en œuvre, mais elle n’est que rarement suivie d’effets sur la décision politique. Depuis des décennies, et contrairement à d’autres pays, notre classe politique est très peu composée de chercheurs. Est-ce que, sur le temps long, les chercheurs vont jouer un rôle politique plus important en Europe et en France ?

Je l’espère, nous sommes là pour ça ! Je pense que c’est de l’ordre des relations personnelles, il faut savoir parler le langage et de l’un et de l’autre pour faire des ponts. Là où je suis passé, à l’Inspection Générale des Finances, au Conseil d’Analyse Economique, j’ai l’impression que ça marche bien, et que les gens ont envie d’ouvrir leurs horizons d’un côté comme de l’autre.

On peut être optimistes tout en restant lucides sur le fait qu’il y a encore pas mal de marges de progression, la question d’associer les chercheurs au travail d’une administration pour l’évaluation, ou la conception des politiques publiques. Il y a aussi la question de faciliter l’accès aux données pour que les chercheurs puissent faire leur travail. C’est un enjeu partagé au niveau français et au niveau européen, où l’on n’a pas d’infrastructure partagée, ce qui est un manque important. Si on revient au niveau français, il y a un rapport important récent du député Éric Bothorel 14 qui a été écrit par l’Inspection Générale des Finances, qui s’intéresse aux politiques de la donnée, et à l’accès des chercheurs. Il y a, par exemple, le cas d’une jeune doctorante à la page 121, qui travaille en France sur les travailleurs détachés, et qui a eu beaucoup de difficultés dans l’accès aux données. Ça montre de manière concrète qu’il y a encore des marges de progression !

Sources
  1. Conseil d’analyse économique, Quelle stratégie de résilience dans la mondialisation ?, 22 avril 2021.
  2. Xavier Jaravel, « The Unequal Gains from Product Innovations : Evidence from the U.S. Retail Sector », The Quarterly Journal of Economics, vol. 134, n° 2, 2019, p. 715-783.
  3. Groundwork Collaborative, The Costs of Being Poor : Inflation Inequality Leads to Three Million More People in Poverty, 7 novembre 2019.
  4. Aghion Philippe, Antonin Céline, Bunel Simon et Jaravel Xavier, What Are the Labor and Product Market Effects of Automation ? New Evidence from France, CEPR, 20 juillet 2020.
  5. Borusyak Kirill, Hull Peter, et Jaravel Xavier, Quasi-Experimental Shift-Share Research Designs, NBER, décembre 2020.
  6. Jaravel Xavier et Sager Erick, What are the Price Effects of Trade ? Evidence from the U.S. and Implications for Quantitative Trade Models, août 2020.
  7. Malgouyres Clément, « The impact of Chinese import competition on the local structure of employment and wages : evidence from France. », Journal of Regional Science, vol. 57, n°3, 2017, p. 411-441.
  8. Arkolakis Costas, Arnaud Costinot et Andrés Rodríguez-Clare, « New Trade Models, Same Old Gains ? », American Economic Review, vol. 102, n°1, 2012, p. 94-130.
  9. Borusyak Kirill et Jaravel Xavier, The Distributional Effects of Trade : Theory and Evidence from the United States, 6 octobre 2018.
  10. Borusyak Kirill, Jaravel Xavier, et Spiess Jann, Revisiting Event Study Designs : Robust and Efficient Estimation, 19 mai 2021.
  11. Borusyak Kirill, Hull Peter, et Jaravel Xavier, Quasi-experimental shift-share research designs, NBER, 2018.
  12. Bell Alex, Chetty Raj, Jaravel Xavier, et al., « Who becomes an inventor in America ? The importance of exposure to innovation. », The Quarterly Journal of Economics, vol. 134, n°2, 2019, p. 647-713.
  13. Bell Alex, Chetty Raj, Jaravel Xavier, et al., « Do tax cuts produce more Einsteins ? The impacts of financial incentives versus exposure to innovation on the supply of inventors. », Journal of the European Economic Association, 2019.
  14. Rapport Bothorel – Pour une politique publique de la donnée, 23 décembre 2020.