La retraite : une question d’âge ou de température ?

Comme on le sait, le financement du système de retraite est potentiellement fragilisé par le vieillissement démographique qui se traduit par une dégradation régulière du nombre d’actifs par retraité. Pour contrôler ce ratio de dépendance démographique, l’âge moyen de liquidation des pensions est un des facteurs clés et il repose sur de nombreux paramètres d’ajustement : durée de cotisation, décote/surcote, âge minimum, âge d’équilibre, etc.Á l’horizon de 2070, la viabilité financière, à législation inchangée, repose principalement sur les hypothèses de croissance de la productivité. Les scénarios récents présentés par le COR, un peu moins optimistes que ceux du rapport de juin 2021, envisagent quatre évolutions possibles comprises entre 0,7 et 1,6% de croissance annuelle de la productivité par habitant. Au regard des estimations proposées, il apparaît que la soutenabilité financière à long terme du système de retraite serait particulièrement compromise avec une croissance de la productivité du travail inférieure à 1,3%.

Un concours de circonstances veut que, tandis que le COR abaisse ses hypothèses de productivité du travail, le GIEC relève ses prévisions de températures, désormais comprises entre 1 et 5,7 degrés d’ici à la fin du siècle (avec un scénario médian qui va de 1,4 à 4,4).Mais le COR ne prend pas en considération les hypothèses du GIEC. Or il n’y a aucun doute quant à l’influence du climat sur la productivité du travail et plus particulièrement sur le fait que la crise climatique va dégrader celle-ci, c’est déjà le cas dans la réalité.De même, l’espérance de vie en bonne santé est un paramètre important à considérer quand on fixe l’âge légal de départ à la retraite. Or la crise climatique dégrade aussi l’espérance de vie en bonne santé. Ainsi les canicules de 2022 auraient causé selon les données encore partielles et provisoires de l’INSEE 11 000 morts prématurés, sans doute davantage, très majoritairement des plus de 65 ans, deuxième catastrophe naturelle la plus meurtrière depuis 1900, derrière la canicule de 2003[1] et devant celles de 2015 et de 2020.Les questions de solidarité générationnelle vont bien au-delà des transferts monétaires entre actifs et retraités qu’intermédie le système de retraite dès lors que l’habitabilité de notre planète est désormais en jeu sous l’effet des points de bascule. Greta Thunberg indique sur son compte Twitter qu’elle est née « en 375 ppm », c’est-à-dire en 2003 lorsque la concentration des gaz dans l’atmosphère provoquant l’effet de serre à l’origine de la crise climatique atteignait 375 parties par million (elle atteint aujourd’hui près de 418 ppm). Comme l’explique sans détour une étude parue dans Science l’an dernier : « une personne née en 1960 subira en moyenne environ 4 ± 2 vagues de chaleur au cours de sa vie…en revanche, un enfant né en 2020 connaîtra 30 ± 9 vagues de chaleur dans un scénario déterminé par les engagements climatiques actuels, qui pourraient être réduites à 22 ± 7 vagues de chaleur si le réchauffement est limité à 2°C, ou à 18 ± 8 vagues de chaleur s’il est limité à 1,5°C. En tout cas, c’est respectivement sept, six ou quatre fois plus que pour une personne née en 1960 ».Il est donc légitime de s’interroger sur le réalisme des scénarios du COR au regard des enjeux planétaires. Sur la page de son simulateur, le COR indique trois paramètres : l’âge, le niveau de cotisation et le niveau des pensions. Pourquoi ne pas ajouter la température ?Il n’est en tout cas pas raisonnable de formuler en 2022 des hypothèses sur l’avenir d’un système de retraite à moyen et long termes sans prendre en considération une batterie d’indicateurs traduisant la qualité de l’environnement en lien avec la santé, à commencer par des hypothèses climatiques, ainsi que des scénarios de croissance soutenable. C’est toute la protection sociale qui doit désormais évoluer vers une protection sociale-écologique, comme le propose un récent rapport du Sénat.

Comme on le sait, le financement du système de retraite est potentiellement fragilisé par le vieillissement démographique qui se traduit par une dégradation régulière du nombre d’actifs par retraité. Pour contrôler ce ratio de dépendance démographique, l’âge moyen de liquidation des pensions est un des facteurs clés et il repose sur de nombreux paramètres d’ajustement : durée de cotisation, décote/surcote, âge minimum, âge d’équilibre, etc.

Á l’horizon de 2070, la viabilité financière, à législation inchangée, repose principalement sur les hypothèses de croissance de la productivité. Les scénarios récents présentés par le COR, un peu moins optimistes que ceux du rapport de juin 2021, envisagent quatre évolutions possibles comprises entre 0,7 et 1,6% de croissance annuelle de la productivité par habitant. Au regard des estimations proposées, il apparaît que la soutenabilité financière à long terme du système de retraite serait particulièrement compromise avec une croissance de la productivité du travail inférieure à 1,3%.

Un concours de circonstances veut que, tandis que le COR abaisse ses hypothèses de productivité du travail, le GIEC relève ses prévisions de températures, désormais comprises entre 1 et 5,7 degrés d’ici à la fin du siècle (avec un scénario médian qui va de 1,4 à 4,4).

Mais le COR ne prend pas en considération les hypothèses du GIEC. Or il n’y a aucun doute quant à l’influence du climat sur la productivité du travail et plus particulièrement sur le fait que la crise climatique va dégrader celle-ci, c’est déjà le cas dans la réalité.

De même, l’espérance de vie en bonne santé est un paramètre important à considérer quand on fixe l’âge légal de départ à la retraite. Or la crise climatique dégrade aussi l’espérance de vie en bonne santé. Ainsi les canicules de 2022 auraient causé selon les données encore partielles et provisoires de l’INSEE 11 000 morts prématurés, sans doute davantage, très majoritairement des plus de 65 ans, deuxième catastrophe naturelle la plus meurtrière depuis 1900, derrière la canicule de 2003[1] et devant celles de 2015 et de 2020.

Les questions de solidarité générationnelle vont bien au-delà des transferts monétaires entre actifs et retraités qu’intermédie le système de retraite dès lors que l’habitabilité de notre planète est désormais en jeu sous l’effet des points de bascule. Greta Thunberg indique sur son compte Twitter qu’elle est née « en 375 ppm », c’est-à-dire en 2003 lorsque la concentration des gaz dans l’atmosphère provoquant l’effet de serre à l’origine de la crise climatique atteignait 375 parties par million (elle atteint aujourd’hui près de 418 ppm). Comme l’explique sans détour une étude parue dans Science l’an dernier : « une personne née en 1960 subira en moyenne environ 4 ± 2 vagues de chaleur au cours de sa vie…en revanche, un enfant né en 2020 connaîtra 30 ± 9 vagues de chaleur dans un scénario déterminé par les engagements climatiques actuels, qui pourraient être réduites à 22 ± 7 vagues de chaleur si le réchauffement est limité à 2°C, ou à 18 ± 8 vagues de chaleur s’il est limité à 1,5°C. En tout cas, c’est respectivement sept, six ou quatre fois plus que pour une personne née en 1960 ».

Il est donc légitime de s’interroger sur le réalisme des scénarios du COR au regard des enjeux planétaires. Sur la page de son simulateur, le COR indique trois paramètres : l’âge, le niveau de cotisation et le niveau des pensions. Pourquoi ne pas ajouter la température ?

Il n’est en tout cas pas raisonnable de formuler en 2022 des hypothèses sur l’avenir d’un système de retraite à moyen et long termes sans prendre en considération une batterie d’indicateurs traduisant la qualité de l’environnement en lien avec la santé, à commencer par des hypothèses climatiques, ainsi que des scénarios de croissance soutenable. C’est toute la protection sociale qui doit désormais évoluer vers une protection sociale-écologique, comme le propose un récent rapport du Sénat.



Comme on le sait, le financement du système de retraite est potentiellement fragilisé par le vieillissement démographique qui se traduit par une dégradation régulière du nombre d’actifs par retraité. Pour contrôler ce ratio de dépendance démographique, l’âge moyen de liquidation des pensions est un des facteurs clés et il repose sur de nombreux paramètres d’ajustement : durée de cotisation, décote/surcote, âge minimum, âge d’équilibre, etc.

Á l’horizon de 2070, la viabilité financière, à législation inchangée, repose principalement sur les hypothèses de croissance de la productivité. Les scénarios récents présentés par le COR, un peu moins optimistes que ceux du rapport de juin 2021, envisagent quatre évolutions possibles comprises entre 0,7 et 1,6% de croissance annuelle de la productivité par habitant. Au regard des estimations proposées, il apparaît que la soutenabilité financière à long terme du système de retraite serait particulièrement compromise avec une croissance de la productivité du travail inférieure à 1,3%.

Un concours de circonstances veut que, tandis que le COR abaisse ses hypothèses de productivité du travail, le GIEC relève ses prévisions de températures, désormais comprises entre 1 et 5,7 degrés d’ici à la fin du siècle (avec un scénario médian qui va de 1,4 à 4,4).

Mais le COR ne prend pas en considération les hypothèses du GIEC. Or il n’y a aucun doute quant à l’influence du climat sur la productivité du travail et plus particulièrement sur le fait que la crise climatique va dégrader celle-ci, c’est déjà le cas dans la réalité.

De même, l’espérance de vie en bonne santé est un paramètre important à considérer quand on fixe l’âge légal de départ à la retraite. Or la crise climatique dégrade aussi l’espérance de vie en bonne santé. Ainsi les canicules de 2022 auraient causé selon les données encore partielles et provisoires de l’INSEE 11 000 morts prématurés, sans doute davantage, très majoritairement des plus de 65 ans, deuxième catastrophe naturelle la plus meurtrière depuis 1900, derrière la canicule de 2003[1] et devant celles de 2015 et de 2020.

Les questions de solidarité générationnelle vont bien au-delà des transferts monétaires entre actifs et retraités qu’intermédie le système de retraite dès lors que l’habitabilité de notre planète est désormais en jeu sous l’effet des points de bascule. Greta Thunberg indique sur son compte Twitter qu’elle est née « en 375 ppm », c’est-à-dire en 2003 lorsque la concentration des gaz dans l’atmosphère provoquant l’effet de serre à l’origine de la crise climatique atteignait 375 parties par million (elle atteint aujourd’hui près de 418 ppm). Comme l’explique sans détour une étude parue dans Science l’an dernier : « une personne née en 1960 subira en moyenne environ 4 ± 2 vagues de chaleur au cours de sa vie…en revanche, un enfant né en 2020 connaîtra 30 ± 9 vagues de chaleur dans un scénario déterminé par les engagements climatiques actuels, qui pourraient être réduites à 22 ± 7 vagues de chaleur si le réchauffement est limité à 2°C, ou à 18 ± 8 vagues de chaleur s’il est limité à 1,5°C. En tout cas, c’est respectivement sept, six ou quatre fois plus que pour une personne née en 1960 ».

Il est donc légitime de s’interroger sur le réalisme des scénarios du COR au regard des enjeux planétaires. Sur la page de son simulateur, le COR indique trois paramètres : l’âge, le niveau de cotisation et le niveau des pensions. Pourquoi ne pas ajouter la température ?

Il n’est en tout cas pas raisonnable de formuler en 2022 des hypothèses sur l’avenir d’un système de retraite à moyen et long termes sans prendre en considération une batterie d’indicateurs traduisant la qualité de l’environnement en lien avec la santé, à commencer par des hypothèses climatiques, ainsi que des scénarios de croissance soutenable. C’est toute la protection sociale qui doit désormais évoluer vers une protection sociale-écologique, comme le propose un récent rapport du Sénat.


Comme on le sait, le financement du système de retraite est potentiellement fragilisé par le vieillissement démographique qui se traduit par une dégradation régulière du nombre d’actifs par retraité. Pour contrôler ce ratio de dépendance démographique, l’âge moyen de liquidation des pensions est un des facteurs clés et il repose sur de nombreux paramètres d’ajustement : durée de cotisation, décote/surcote, âge minimum, âge d’équilibre, etc.

Á l’horizon de 2070, la viabilité financière, à législation inchangée, repose principalement sur les hypothèses de croissance de la productivité. Les scénarios récents présentés par le COR, un peu moins optimistes que ceux du rapport de juin 2021, envisagent quatre évolutions possibles comprises entre 0,7 et 1,6% de croissance annuelle de la productivité par habitant. Au regard des estimations proposées, il apparaît que la soutenabilité financière à long terme du système de retraite serait particulièrement compromise avec une croissance de la productivité du travail inférieure à 1,3%.

Un concours de circonstances veut que, tandis que le COR abaisse ses hypothèses de productivité du travail, le GIEC relève ses prévisions de températures, désormais comprises entre 1 et 5,7 degrés d’ici à la fin du siècle (avec un scénario médian qui va de 1,4 à 4,4).

Mais le COR ne prend pas en considération les hypothèses du GIEC. Or il n’y a aucun doute quant à l’influence du climat sur la productivité du travail et plus particulièrement sur le fait que la crise climatique va dégrader celle-ci, c’est déjà le cas dans la réalité.

De même, l’espérance de vie en bonne santé est un paramètre important à considérer quand on fixe l’âge légal de départ à la retraite. Or la crise climatique dégrade aussi l’espérance de vie en bonne santé. Ainsi les canicules de 2022 auraient causé selon les données encore partielles et provisoires de l’INSEE 11 000 morts prématurés, sans doute davantage, très majoritairement des plus de 65 ans, deuxième catastrophe naturelle la plus meurtrière depuis 1900, derrière la canicule de 2003[1] et devant celles de 2015 et de 2020.

Les questions de solidarité générationnelle vont bien au-delà des transferts monétaires entre actifs et retraités qu’intermédie le système de retraite dès lors que l’habitabilité de notre planète est désormais en jeu sous l’effet des points de bascule. Greta Thunberg indique sur son compte Twitter qu’elle est née « en 375 ppm », c’est-à-dire en 2003 lorsque la concentration des gaz dans l’atmosphère provoquant l’effet de serre à l’origine de la crise climatique atteignait 375 parties par million (elle atteint aujourd’hui près de 418 ppm). Comme l’explique sans détour une étude parue dans Science l’an dernier : « une personne née en 1960 subira en moyenne environ 4 ± 2 vagues de chaleur au cours de sa vie…en revanche, un enfant né en 2020 connaîtra 30 ± 9 vagues de chaleur dans un scénario déterminé par les engagements climatiques actuels, qui pourraient être réduites à 22 ± 7 vagues de chaleur si le réchauffement est limité à 2°C, ou à 18 ± 8 vagues de chaleur s’il est limité à 1,5°C. En tout cas, c’est respectivement sept, six ou quatre fois plus que pour une personne née en 1960 ».

Il est donc légitime de s’interroger sur le réalisme des scénarios du COR au regard des enjeux planétaires. Sur la page de son simulateur, le COR indique trois paramètres : l’âge, le niveau de cotisation et le niveau des pensions. Pourquoi ne pas ajouter la température ?

Il n’est en tout cas pas raisonnable de formuler en 2022 des hypothèses sur l’avenir d’un système de retraite à moyen et long termes sans prendre en considération une batterie d’indicateurs traduisant la qualité de l’environnement en lien avec la santé, à commencer par des hypothèses climatiques, ainsi que des scénarios de croissance soutenable. C’est toute la protection sociale qui doit désormais évoluer vers une protection sociale-écologique, comme le propose un récent rapport du Sénat.




États-Unis : coup de frein ou récession ?

par Christophe Blot

Au premier trimestre 2022, le PIB des États-Unis a affiché un recul de 0,4 % brisant ainsi la reprise qui s’était enclenchée à partir de l’été 2020. Le contexte économique international s’est fortement dégradé en raison de la conjonction de plusieurs chocs négatifs. La reprise économique mondiale s’est effectivement accompagnée de difficultés d’approvisionnement et d’une forte hausse des prix de l’énergie, amplifiée depuis février 2022 par l’invasion de l’Ukraine par la Russie. Le conflit a provoqué une hausse des tensions géopolitiques se traduisant par une incertitude accrue[1]. Enfin, la hausse de l’inflation a conduit les banques centrales et notamment la Réserve fédérale à augmenter les taux d’intérêt. Par conséquent, la baisse du PIB américain du début d’année peut-elle présager d’une récession ou se traduira-t-elle par un simple coup de frein sur la croissance ?



Après la forte contraction de l’activité observée en 2020, l’économie américaine a nettement rebondi si bien que, dès le deuxième trimestre 2021, le PIB dépassait le niveau d’activité observé en fin d’année 2019. Sur l’ensemble de l’année 2021, la croissance s’est établie à 5,7 %, fortement tirée par la demande intérieure et notamment la consommation des ménages qui progressait de 7,9 %[2]. Les plans de soutien mis en œuvre d’abord par l’administration Trump puis par Joe Biden ont surcompensé les pertes de revenus primaires des ménages liées à la crise sanitaire, ce qui a largement soutenu la consommation, notamment celle de biens durables[3]. Le dynamisme de la demande intérieure américaine et mondiale s’est heurté à des contraintes d’offre en raison de l’apparition de nouvelles vagues de contamination. Même si dans la plupart des pays la situation sanitaire ne s’est pas accompagnée de mesures prophylactiques aussi fortes que celles mises en œuvre au printemps 2020, la situation sanitaire est restée détériorée bloquant les chaînes d’approvisionnement au niveau mondial et l’offre de travail[4]. Le contraste entre la demande américaine, soutenue par des politiques budgétaires très expansionnistes et une offre mondiale contrainte a poussé les prix à la hausse. Aux États-Unis, le déflateur de la consommation hors énergie et prix alimentaires s’est élevé à 3,3 % en 2021 avec des augmentations bien plus fortes sur certains biens : 13,2 % pour les automobiles par exemple. Autre signe du déséquilibre de la croissance américaine : la forte augmentation des importations en volume (+14 % sur l’année contre une hausse des exportations de 4,5 %) s’est traduite par une dégradation du solde commercial des biens et services dont le déficit a atteint 1 280 milliards en 2021 (soit 5,6 % du PIB) contre 905 milliards (4,2 % du PIB) deux ans auparavant. La contraction du PIB observée au premier trimestre 2022 pourrait être la manifestation d’une surchauffe de l’économie puisque la demande intérieure est restée bien orientée : +0,5 point. C’est la contribution négative (-1 point) du commerce extérieur qui explique la baisse du PIB de 0,4 %.  

Pour la suite de l’année 2022, l’activité sera principalement affectée par des chocs négatifs. Alors que nous prévoyions une croissance de 4,2 % lors de la prévision d’octobre, ce chiffre serait significativement revu à la baisse (graphique 1) et atteindrait 2,1 %. Bien que les États-Unis soient producteurs de pétrole, la hausse des prix aurait un effet négatif via une réduction du pouvoir d’achat des ménages et une hausse des coûts de production des entreprises[5]. Sous l’hypothèse d’un maintien des tensions géopolitiques au niveau observé en avril jusqu’en fin d’année, le choc d’incertitude amputerait l’activité de 0,4 point[6]. Quant aux contraintes d’approvisionnement, elles n’auraient pas d’effet récessif significatif aux États-Unis mais contribueraient sans doute au maintien des tensions sur les prix. Une partie de la réduction de la prévision de croissance s’explique également par un durcissement plus fort qu’anticipé de la politique monétaire. En effet, dans le scénario d’octobre 2021, nous anticipions un retour progressif de l’inflation vers la cible de la Réserve fédérale et par conséquent une normalisation bien plus lente de la politique monétaire. Avec un choc inflationniste plus important et plus durable, la Réserve fédérale a durci sa politique monétaire. Les trois dernières réunions du FOMC (Federal Open Market Committee) ont systématiquement débouché sur une hausse du taux qui est passé de 0,25 % en janvier à 1,75 % en juin. Le mouvement se poursuivrait au cours du deuxième semestre avec une augmentation du taux de 1,5 point en moyenne sur l’année, ce qui aurait un effet sur la croissance pouvant atteindre 0,5 point dès 2022. La somme de ces chocs réduit donc la prévision de croissance de 1,2 point. À cet effet s’ajoute une révision à la baisse de l’acquis de croissance puisque la croissance au cours des troisième et quatrième trimestres 2021 a été moins forte que ce nous avions anticipé : 0,6 et 1,7 % respectivement contre une prévision de 1,4 et 2,3 % en octobre 2021. Enfin, ces chocs ne seraient pas compensés par la politique budgétaire[7].

Etant donné le chiffre de croissance du premier trimestre 2022, une croissance trimestrielle autour de 0,3-0,4 % au cours des trois trimestres suivants serait compatible avec une croissance annuelle à 2,1 %[8]. Les indicateurs conjoncturels pour les mois d’avril à juin confirment un ralentissement de l’activité américaine dans un contexte d’inflation toujours aussi élevée. Les chiffres mensuels de consommation des ménages suggèrent déjà un ralentissement puisqu’elle a progressé en avril (+0,3 %) mais reculé en mai (-0,4 %). De nouveau, ces performances restent tirées par l’évolution des achats de biens durables qui ont atteint un pic en mars 2021 et baissé de 5,6 % depuis (graphique 2). Du côté des enquêtes de confiance auprès des entreprises, le ralentissement est confirmé mais les niveaux se situent toujours au-dessus des moyennes de long terme. Par ailleurs, la production industrielle a continué à augmenter en avril et mai. Enfin du côté de l’emploi et du chômage, les chiffres pour le mois de juin permettent d’avoir une vision complète du deuxième trimestre. Le taux de chômage stagne à 3,6 % après avoir baissé de plus de 11 points entre avril 2020 et mars 2022. Quant à l’emploi, il a progressé en moyenne par rapport au premier trimestre mais le niveau de juin 2022 est inférieur à celui de mars. Ces éléments plaident donc pour une croissance modérée, voire négative notamment si la contribution du commerce extérieur est de nouveau négative. Pour autant, il s’agirait au pire d’une récession technique[9].


[1] Voir « L’économie mondiale sous le(s) choc(s) », Revue de l’OFCE, n° 177, pour une analyse détaillée.

[2] La FBCF totale augmentait quant à elle de 7,7 %.

[3] Voir « Europe / États-Unis, comment les politiques budgétaires ont-elles soutenu les revenus ? », OFCE le Blog, 26 octobre 2020.

[4] La Chine faisait figure d’exception notable du fait de la stratégie « zéro Covid » se traduisant par des confinements locaux.

[5] Une revue récente de la littérature suggère effectivement que la hausse du prix du pétrole réduit la consommation des ménages et l’investissement. Voir A. M. Herrera, M. B. Karaki & S. K. Rangaraju, 2019, « Oil price shocks and US economic activity », Energy policy, n° 129, pp. 89-99.

[6] Voir le Tableau 3 page 32 de « L’économie mondiale sous le(s) choc(s) », Op. cit.

[7] L’estimation de l’effet de la politique budgétaire reflète la révision de l’impulsion par rapport au scénario envisagé en octobre 2021. L’impulsion budgétaire est négative en raison de la fin des nombreuses mesures exceptionnelles mises en œuvre pour faire face à la crise sanitaire. La révision tient surtout à l’analyse des mesures incluses dans le budget 2022 par l’administration Biden.

[8] Les performances du premier trimestre peuvent déjà en partie capter l’impact des différents chocs.

[9] On parle de récession technique lorsque le PIB recule sur deux trimestres consécutifs. La récession dépend cependant d’un ensemble d’indicateurs.




Banque centrale européenne et démocratie

Christian Pfister[1]

La BCE n’est pas une institution politique. Toutefois, c’est une institution publique, chargée d’une mission d’intérêt public, celle d’émettre la monnaie légale, l’euro, dans les pays qui l’ont adopté. Son action ne peut donc que s’insérer dans le débat démocratique.

La première partie de ce billet montre comment la BCE s’insère dans le débat démocratique. La deuxième partie décrit le défi auquel elle se trouve confrontée en raison de l’élargissement implicite de ses missions. La  troisième et dernière partie spécule sur les moyens juridiques de gérer le hiatus entre le statut de la BCE, qui n’a pas évolué depuis sa création, et la pratique.

L’insertion de la BCE dans le débat démocratique

Je m’efforce de répondre à deux questions : comment la BCE s’insère-t-elle dans le débat démocratique ? Cette insertion peut-elle être améliorée ?

Comment la BCE s’insère-t-elle dans le débat démocratique ?

La BCE s’insère de deux manières dans le débat démocratique : par son statut et dans son fonctionnement :

S’agissant du statut, il faut rappeler des faits connus, mais je crois essentiels, car le statut de la BCE fournit le « socle dur » à son insertion dans le débat démocratique. À cet égard, deux points méritent d’être relevés :

(i)  les statuts de la BCE et du Système européen de banques centrales (SEBC) sont annexés au Traité de Maastricht, ce qui a le double avantage de leur donner une forte légitimité et de les rendre difficiles à modifier. Cette difficulté à modifier les statuts de la BCE est importante car, associée à l’indépendance de l’institution, elle lui confère une forte crédibilité, rendant son action plus efficace. Le débattement des taux d’intérêt nécessaire pour stabiliser l’économie devrait ainsi se trouver réduit, permettant in fine d’améliorer les termes du dilemme inflation-chômage au cœur de la conduite de la politique monétaire (Drumetz et al., 2015, chapitre 2, pages 58 à 75). Cela est particulièrement utile lorsque la faiblesse de la croissance potentielle réduit le taux d’intérêt réel d’équilibre, durcissant la contrainte de limite effective des taux d’intérêt à la baisse (Pfister et Valla, 2017).

(ii) en France, en particulier, il aura fallu une modification de la Constitution pour rendre la Banque de France indépendante, en conformité avec les statuts de la BCE et du SEBC. Il aura aussi fallu un référendum pour ratifier le Traité. C’est une très forte caution démocratique, dont à ma connaissance aucune autre institution ne peut se prévaloir depuis le début de la Vème République.

S’agissant du fonctionnement de la BCE,

(i) Celle-ci a un devoir de responsabilité (accountability). Ce devoir est codifié par des règles insérées dans son statut, notamment la participation à des auditions de ses dirigeants devant les commissions du Parlement européen. Cette responsabilité a une double signification. D’abord, c’est le pendant et d’une certaine manière le garant de l’indépendance : une institution publique qui refuserait  de s’expliquer sur ses actions verrait rapidement ses attributions mises en cause. Ensuite, c’est le gage d’une plus grande efficacité de la politique monétaire : en s’expliquant mieux, on prend davantage de chances de convaincre (Drumetz et al., 2015, chapitre 2, pages 76 à 97). Le comprenant, la BCE est d’ailleurs allée au-delà de ses obligations statutaires, par exemple en organisant des conférences de presse à l’issue des réunions du Conseil des gouverneurs ou en publiant ses prévisions économiques ainsi qu’une grande quantité et variété de travaux de recherche.

(ii) Cela dit, on peut se demander si l’indépendance est compatible avec un mandat large (en posant cette question, j’anticipe sur la suite).

L’insertion de la BCE dans le débat démocratique peut-elle être améliorée ?

La réponse est que le dialogue peut certainement être amélioré avec les institutions démocratiques (Parlement européen, Commission européenne, Conseil de l’UE). Ceci peut notamment se faire par des échanges et auditions plus fréquents et plus approfondis. Néanmoins, les auditions par le Parlement européen sont déjà à sa discrétion. Le dialogue – ou le trilogue – peut aussi être amélioré avec l’Université, une institution qui à mon sens a un rôle important à jouer dans le débat démocratique.

Mais il faut être deux pour dialoguer (It takes two to tango). Or,

(i) Comprendre la politique monétaire suppose un « coût d’entrée » et les compétences n’existent pas toujours du côté des institutions démocratiques : elles doivent donc s’en doter. On peut penser à 2 voies pour cela : 1/ la première consisterait à ce qu’elles diversifient leur recrutement ; on peut ainsi noter qu’il y a parmi les décideurs politiques de très bons connaisseurs des sujets les plus divers (l’agriculture, la pêche, l’écologie, les impôts,…), mais qu’il y en a peu en politique monétaire dont tout le monde s’accorde pourtant à dire que c’est un sujet important ; 2/ la deuxième voie est de se faire appuyer par des experts, un peu comme, aux États-Unis, le Congressional Budget  Office assiste le Congrès en matière économique et budgétaire ;

(ii) Par ailleurs, il faut bien constater que le débat universitaire sur la politique monétaire reste pauvre dans l’Université européenne : il y a là un contraste avec l’Université américaine où, par exemple, un débat s’est précocement développé sur le caractère durable ou non de l’accélération des prix depuis 2020. Par exemple, certains économistes (notamment Lawrence Summers et Paul Krugman), qui avaient approuvé les précédentes mesures adoptées par la Fed pour soutenir l’économie, l’ont critiquée dès la première moitié de l’an dernier pour son attentisme face au retour de l’inflation. Plus d’un an plus tard, on n’a pas encore un débat similaire en Europe.

La BCE au défi d’un élargissement implicite de ses missions

Je distingue deux types d’élargissement : celui imposé et celui par défaut.

Élargissement imposé

L’Art. 127(1) du TFUE impose un objectif final de stabilité des prix à la BCE mais aussi, sans préjudice à l’objectif final, l’obligation de soutien des politiques économiques de l’UE.

Il ne peut donc y avoir de conflit avec l’objectif primaire. Mais, avec la multiplication des politiques économiques de l’UE, les objectifs secondaires se multiplient eux-mêmes pour la BCE. Comment alors gérer les injonctions contradictoires pouvant résulter de conflits entre objectifs secondaires?

Je prends l’exemple de la lutte contre le changement climatique. Certains voudraient que la BCE ne refinance pas les banques qui prêtent à des entreprises émettrices de carbone ou n’achètent plus les titres que ces entreprises émettent, même lorsqu’elles investissent précisément pour réduire leur empreinte carbone. Or, une telle décision pourrait avoir un effet d’opprobre, coupant ces entreprises de tout financement, avec des conséquences négatives pour la croissance et l’emploi, deux autres objectifs secondaires de la politique monétaire. De fait, pour prendre en compte l’objectif de lutte contre le changement climatique, la BCE a adapté sa politique de garantie lorsqu’elle prête aux banques et sa politique d’achat de titres « corporate » (Pfister et Valla, 2021). Mais elle ne pouvait pas le faire de la manière extrême voulue par certains.

Élargissement par défaut

Au-delà du Traité, la question qui se pose est la suivante : que faire si les institutions démocratiques ne remplissent pas le rôle qui est supposément le leur et que la BCE dispose, au moins en apparence et à court terme, des moyens pour soulager les contraintes, ce que l’on a complaisamment appelé le « bazooka monétaire » ? Trois exemples sont : la non-application du Pacte de stabilité et la dérive des finances publiques qu’elle a autorisée (Jaillet et Pfister, 2022), l’insuffisance des mesures d’ajustement et de recapitalisation bancaire à la suite de la crise financière mondiale et la quasi-absence, dans la plupart des États-membres, de politiques fiscales pour lutter contre le changement climatique, bien que ce soit les politiques les plus efficaces pour cela.

Jusqu’à présent, les conséquences de ces responsabilités esquivées par les responsables des politiques économiques ont largement dû être prises en charge par la BCE. Celle-ci a notamment dû multiplier ses instruments de politique monétaire, avec pour conséquence une interférence de plus en plus forte avec les allocations de marché : le marché monétaire, ceux des obligations bancaires, d’entreprises et d’État sont de nos jours assez largement administrés par la BCE. Cela crée un double problème : 1/problème d’efficacité économique : la BCE est-elle meilleur juge que les autres agents économiques de l’allocation des facteurs ? 2/mais aussi problème de conformité aux principes qui fondent l’insertion de la BCE dans le débat démocratique, ceci à un double titre. D’abord, la BCE se voit jouer un rôle non envisagé initialement, sans modification des textes. Ensuite, un hiatus se forme au regard de l’Article 2 des statuts de la BCE et du SEBC. En effet, celui-ci dispose que « le SEBC doit agir en conformité avec le principe d’une économie ouverte avec libre concurrence, favorisant une allocation efficace des ressources ».

Quelles voies juridiques pour résorber le hiatus entre textes et pratiques ?

À partir de la situation actuelle et à titre exploratoire, deux scénarios juridiques sont a priori envisageables :

Le statu quo

l’avantage serait de se passer d’une modification du TFUE, procédure longue et hasardeuse. Il serait aussi de permettre le retour spontané au fonctionnement d’avant la crise financière mondiale. Il ne faut toutefois pas se leurrer sur les embuches auxquelles la BCE pourrait se trouver confrontée dans cette dernière voie : les bénéficiaires du fonctionnement actuel, en premier lieu les Etats et les banques, s’y opposeront probablement, sans doute pas directement mais plutôt par média interposés. Il n’est que de voir la pluie de critiques qui a accueilli le propos de Christine Lagarde lors d’une de ses conférences de presse, pourtant en stricte conformité avec le statut de la BCE : « La BCE n’est pas là pour gérer les spreads ». L’inconvénient du statu quo est bien sûr de laisser perdurer le hiatus entre les textes et la pratique. Plus longtemps ce sera le cas, plus le retour au statu quo ante sera difficile ;

La modification des textes 

Ici, deux sous-scénarios extrêmes sont possibles. Dans le premier, l’élargissement des missions de la BCE est entériné et codifié. S’agissant de ce que j’ai appelé l’élargissement imposé, les moyens de gérer les conflits d’objectifs secondaires seraient spécifiés, par exemple en hiérarchisant à leur tour ces objectifs. Il serait aussi théoriquement possible d’imposer légalement à la BCE des tâches que l’inaction des autorités publiques l’ont induite à assumer. Néanmoins, cette dernière voie comporterait des risques, outre ceux inhérents à tout processus politique, dont l’objectif est presque toujours à court terme, ce qui est a contrario la justification de l’indépendance de la banque centrale. Ces risques sont de trois natures. Le premier risque est d’évacuer les ajustements de marché, comme ce serait partiellement le cas dans la proposition d’administration des spreads formulée par Blanchard et al. (2021), ou de manière plus claire encore dans la proposition de Mathieu et Sterdyniak (2022). En effet, ces derniers auteurs proposent que la BCE intervienne sur les marchés des titres d’État pour y maintenir des taux d’intérêt inférieurs au taux de croissance économique, permettant à leur tour de financer des dépenses publiques quasi illimitées. Le deuxième risque est bien sûr, en transférant à la BCE une partie des responsabilités des politiques, d’en faire une institution relevant elle-même de la sphère politique, donc par construction non-indépendante. Le troisième risque est celui d’une perte de crédibilité de la BCE, donc une moins grande efficacité de son action (Drumetz et al., 2015). Dans un deuxième sous-scénario, opposé au premier, le TFUE serait au contraire modifié pour séparer davantage les responsabilités entre les instances politiques et la BCE, notamment sur le plan budgétaire. Les achats de titres publics pourraient ainsi être interdits, en conformité avec l’esprit mais non la lettre du Traité actuel, tandis que le Pacte de Stabilité serait renforcé, par exemple en accroissant le rôle de la Commission.

En tout état de cause, en arrière-fond du débat sur la BCE et la démocratie, il y a un débat de société, un débat sur le type de démocratie que nous souhaitons et sur la place que les individus et les institutions doivent respectivement y jouer.

Références

Blanchard O., Leandro A., Zettelmeyer J., 2021, « Redesigning EU fiscal rules: from rules to standards », Economic Policy, vol. 36, n° 106, pp. 195-236, 9100_Redesigning-EU-Fiscal-Rules.pdf (economic-policy.org).

Drumetz F., Pfister C., Sahuc J.G., 2015, Politique monétaire, deuxième édition, De Boeck.

Jaillet P., Pfister C., 2022, « Quelles règles budgétaires pour quelle UEM ? », Revue d’économie financière, à paraître.

Mathieu C., Sterdyniak H., 2022, « Towards New Fiscal Rules in the Euro Area? », Intereconomics, vol. 57, n° 1, pp. 16-20, https://www.intereconomics.eu/contents/year/2022/number/1/article/towards-new-fiscal-rules-in-the-euro-area.html.

Pfister C., Valla N., 2017, « Nouvelle Normale” ou “Nouvelle Orthodoxie” ? Éléments d’un nouveau cadre d’action pour les banques centrales », Revue économique, vol. 68 – Supplément, septembre, pp. 41-62 (https://www.cairn.info/revue-economique-2017-HS1-page-41.htm)

Pfister C., Valla N., 2021, « Une banque centrale pour le changement climatique ? », Revue d’économie financière, 143, 241-267, https://www.cairn.info/revue-d-economie-financiere-2021-3-page-241.htm.


[1] Sciences Po et Paris 1 Panthéon-Sorbonne. Ce texte fait suite à une intervention de l’auteur dans le cadre de la séance du 20 mai 2022 du séminaire “Théorie et économie politique de l’Europe” organisé par le Cevipof et l’OFCE. Les points de vue exprimés n’engagent ni Sciences Po, ni Paris 1 Panthéon-Sorbonne.




Assurance chômage optimale dans un modèle à agents hétérogènes

par Stéphane Auray et Aurélien Eyquem

Le chômage reste un problème majeur dans la plupart des économies développées, en particulier en cas de ralentissement économique important. Dans une économie évoluant vers plus de mobilité professionnelle (sectorielle, géographique ou fonctionnelle), les caractéristiques du système d’assurance chômage, et notamment le montant de l’indemnisation, font l’objet de nombreuses attentions, comme le montrent les réactions à la réforme mise en place par le gouvernement après concertation avec les partenaires sociaux à l’automne 2021 (voir Bock, Coquet, Dauvin et Heyer, 2022).



Si le motif premier de l’assurance chômage est bien d’assurer les travailleurs contre le risque de chômage en leur proposant un revenu de remplacement en cas de réalisation de périodes de chômage, elle a aussi d’autres effets sur l’économie. En particulier, la littérature sur l’indemnisation chômage s’intéresse habituellement à l’arbitrage entre ce motif assurantiel et les éventuels effets désincitatifs d’une assurance chômage sur la création d’emplois des entreprises. Là où le motif assurantiel appellerait le législateur à augmenter la générosité de l’indemnisation du chômage, le second (de création d’emplois) conduirait à la rendre moins généreuse. Un troisième motif existe, car l’assurance chômage peut également jouer un rôle de stabilisation de la demande agrégée. En effet, en cas de récession liée à un choc de demande, le niveau de l’indemnité chômage – et son éventuelle augmentation – peuvent permettre de réduire le potentiel effet d’amplification de la récession lié à l’augmentation du risque de chômage. En cas de hausse anticipée du chômage, lorsque les ménages ne sont pas entièrement assurés contre ce risque de baisse du revenu, ils augmentent leur épargne de précaution, ce qui réduit la demande, accroît la récession et amplifie l’augmentation du chômage. Ce motif vient donc compléter et renforcer le motif assurantiel décrit ci-dessus dans la mesure où tous les agents économiques – et pas seulement les chômeurs – bénéficient alors d’une plus faible récession. Dès lors, d’autres questions s’ajoutent à la question du niveau souhaitable de l’assurance chômage qui permettrait de concilier les intérêts des travailleurs et des entreprises. En particulier, de par ses effets sur la création d’emploi et la demande agrégée, la question de l’assurance-chômage comme un instrument éventuel de politique économique se pose. Quel devrait être le niveau de l’assurance-chômage, devrait-il varier selon le cycle économique ? Si oui, comment et de combien ? Quels sont les effets macroéconomiques potentiels (sur le chômage notamment) et redistributifs de possibles réformes ?

Ces questions peuvent appeler de nombreuses réponses selon les objectifs poursuivis ou les modèles considérés. Dans ce billet, nous présentons les résultats d’un article récent visant à répondre à ces questions en s’appuyant sur un modèle macroéconomique à agents hétérogènes. En particulier, notre article, « Optimal Unemployment Insurance in a THANK Model » (Auray et Eyquem, 2022) prend en compte les trois effets de l’assurance-chômage (assurantiel, création d’emploi et stabilisation de la demande agrégée) et leurs interactions afin d’étudier (i) la mise en place d’une réforme optimale (à la Ramsey) à court terme et à long terme et (ii) la réponse optimale lorsque l’équilibre de long terme est affecté par des chocs négatifs de productivité ou de séparation.

Le modèle à agents hétérogènes THANK

Pour étudier la réforme optimale à la Ramsey et la réponse optimale de l’assurance chômage à des chocs macroéconomiques, nous nous appuyons sur un modèle d’équilibre qui se base sur les travaux de Ravn et Sterk (2017). Notre modèle est composé de trois grands types d’agents : des travailleurs, des chômeurs et des firmes. Nous supposons que les travailleurs vivent de leur salaire, les chômeurs de l’assurance chômage et les propriétaires de firmes des profits liés au recrutement de travailleurs. L’assurance chômage perçue par les chômeurs est financée par un impôt proportionnel sur les revenus du travail et correspond simplement à une fraction du salaire réel d’équilibre. Le ratio entre les « revenus » du chômage et les revenus du travail s’appelle le taux de remplacement. C’est à ce taux de remplacement et à son niveau « optimal » dans le cadre d’une réforme optimale à la Ramsey que nous nous intéressons.

Notre modèle étant un modèle d’équilibre, il définit donc une situation moyenne de long terme de l’économie (sans cycles et donc sans chocs) et des variations autour de cette situation moyenne, les cycles étant causés par des chocs inattendus. Avant d’étudier la réforme optimale à la Ramsey, nous devons donc commencer par calibrer le modèle dans un cadre antérieur à la réforme de 2021. Nous considérons un taux de remplacement stable (constant) de 75%, ce qui induit dans le modèle à une baisse de revenu d’environ 20% en cas de perte d’emploi, les revenus du travail étant soumis à cotisation chômage tandis que les indemnités sont exonérées. Le taux de chômage moyen de cette économie est de 7,6%, la valeur du taux de chômage au sein de la zone euro à la fin de l’année 2019. Dans cet équilibre antérieur à la réforme, le modèle parvient à reproduire de nombreuses caractéristiques tendancielles et cycliques d’une économie représentative de la zone euro. C’est à partir de cette situation initiale que nous évaluons l’impact d’une réforme optimale à la Ramsey.

Une des hypothèses centrales de notre modèle tient à l’incomplétude des marchés. Cette incomplétude présuppose qu’il existe des imperfections sur le marché des biens et services et sur le marché du travail qui impactent le mécanisme d’ajustement par les prix de l’offre et de la demande. Au chômage frictionnel, qui résulterait d’un problème temporaire d’appariement entre l’offre et la demande de travail, s’ajoute un risque de chômage endogène résultant de la rigidité des prix et des salaires. Cette composante de rigidité des prix et des salaires est intégrée dans notre modèle afin de voir l’impact que cela a sur une réforme et une réponse optimale de l’assurance chômage.

Réforme optimale de l’assurance chômage

Nous allons commencer par caractériser, à court terme et à long terme, la réforme optimale (à la Ramsey).

À court terme, ce sont les motifs de stabilisation de la demande agrégée et d’assurance qui dominent[1]. Ainsi, la réforme optimale consiste dans un premier temps à augmenter le taux de remplacement de l’assurance chômage et donc à accroître la générosité de l’assurance chômage. Cette augmentation stimule la demande globale car elle augmente directement le revenu des chômeurs et indirectement le revenu des travailleurs via le salaire réel négocié. Cela permet une augmentation significative de la consommation agrégée. Malgré la hausse du salaire réel, les firmes vont créer des emplois dès la mise en place de la réforme ou peu de temps après car elles raisonnent de manière intertemporelle. En effet, elles tiennent compte de l’engagement du législateur à abaisser de façon permanente les indemnités chômage dans le futur et donc les salaires réels pour ne pas peser sur la création d’emploi. Cette augmentation du taux de remplacement est donc temporaire et dure près de 2 ans et demi dans notre modèle. Après cela, le taux de remplacement diminue pour ne pas affecter le motif de création d’emploi.

En effet, à long terme, c’est le motif de création d’emploi qui domine. Ainsi, dans un second temps, une réforme optimale du système d’assurance-chômage implique la mise en place d’un taux de remplacement plus faible (59% contre 75% avant la réforme). En diminuant la valeur de l’option alternative au travail et donc le pouvoir de négociation des travailleurs, la réforme stimule la création d’emploi et permet une réduction du taux de chômage moyen (de 7,6% à 5,75%). Par ailleurs, réduire le taux de remplacement et le taux de chômage permet de diminuer les dépenses d’assurance chômage et donc de réduire le taux d’imposition des travailleurs. Cela participe donc à une hausse des revenus du travail après impôts et cotisations. Firmes et travailleurs sont gagnants au regard de la réforme. Les chômeurs sont perdants puisqu’ils voient leur niveau de revenu baisser mais bénéficient d’une plus grande probabilité de retrouver un emploi après la réforme.

Une fois ce nouvel équilibre de long terme atteint, reste la question de l’ajustement du taux de remplacement en réponse aux chocs négatifs qui viennent perturber temporairement l’équilibre de long terme.

Politiques optimales en réponse aux crises

L’assurance chômage et le taux de remplacement sont considérés ici comme des instruments de politique économique au même titre que la politique budgétaire et monétaire[2].  Dans l’article, nous déterminons la réponse optimale du taux de remplacement à deux types de chocs : chocs négatifs de productivité et des chocs positifs de séparation. Les premiers affectent les conditions de générales de production des entreprises en affectant la productivité du travail (e.g., une hausse des cotisations patronales). Quant aux seconds, ils impactent le marché de l’emploi car ils contraignent les entreprises à se séparer d’une partie de leur masse salariale, alors que la productivité du travail reste stable[3]. Ces chocs de séparation sont considérés comme des contributeurs importants aux deux crises les plus récentes, à savoir la Grande Récession (voir Auray, Eyquem, et Gomme, 2019 ou Ravn et Sterk, 2017) et la récession liée au Coronavirus Covid-19 (voir Auray et Eyquem, 2020).   

Nous considérons des chocs impliquant une baisse du niveau du produit national de l’ordre de 2,5%. Dans le cas d’un choc de productivité négatif, il faut distinguer le cas où les salaires réels sont flexibles ou rigides à la baisse. Si les salaires réels sont flexibles, alors le choc négatif de productivité va être absorbé par le marché du travail avec une diminution des salaires réels et donc l’impact sur le chômage sera limité. Ainsi, il n’est pas nécessaire d’intervenir et d’ajuster le taux de remplacement. Quand les salaires sont rigides à la baisse, le choc ne sera pas absorbé par les mécanismes du marché du travail. Dans ce cas, la politique optimale consiste à réduire massivement (de près de 10 points de pourcentage) le taux de remplacement. En diminuant le taux de remplacement, on diminue le niveau réel des salaires et on réduit la hausse du chômage consécutive à ce choc négatif d’offre. Cette politique de diminution du taux de remplacement se substitue aux mécanismes de marché lorsque les salaires sont rigides.

Dans le cas d’un choc positif de séparation, que les salaires soient rigides ou flexibles, le taux de chômage augmente très largement et de manière persistante. Le marché ne pourra pas absorber le choc de lui-même. Ainsi, et contrairement à un choc négatif de productivité, diminuer le taux de remplacement n’aurait que très peu d’effet. La création d’emploi permise par cette diminution ne permettrait pas de compenser les effets du choc de séparation. Ainsi, le motif de création d’emploi étant négligeable, il faudrait davantage jouer sur les motifs d’assurance et de stabilisation de la demande agrégée. La politique optimale consiste alors à augmenter le taux de remplacement de l’assurance chômage pour soutenir la demande agrégée et limiter les effets négatifs de cette vague de chômage sur le revenu national via la consommation des ménages.

Bien que présentant des limites – il néglige par exemple la question de la durée d’indemnisation – le cadre définit dans notre article nous permet de mettre en évidence la complexité de la mise en place de politiques d’assurance chômage optimales. Si à long terme, une réforme optimale de l’assurance chômage vise bien à une baisse de l’indemnisation, à court terme il semble nécessaire de revaloriser les indemnités pour encourager la demande agrégée tout en signalant aux entreprises qu’à terme les indemnités diminueront pour que celles-ci continuent à créer de l’emploi. Une réforme qui se contenterait de diminuer brutalement le niveau de l’indemnisation du chômage pourrait donc présenter des gains bien plus faibles, voire des pertes en termes de bien-être par rapport à cette politique en deux temps. De la même manière, les gains de politiques cycliques optimales d’assurance chômage existent mais ces politiques (i) sont très dépendantes de l’environnement économique et institutionnel (notamment le degré de flexibilité des salaires réels) et (ii) impliquent des réponses différentes (hausse ou baisse de l’indemnisation) selon la nature des chocs macroéconomiques qui causent l’augmentation du chômage.

Références

Auray Stéphane, Aurélien Eyquem et Paul Gomme, 2019, « Debt Hangover in the Aftermath of the Great Recession », Journal of Economic Dynamics and Control, n° 105, pp. 107-133.

Auray Stéphane et Aurélien Eyquem, 2020, « The Macroeconomic Effects of Lockdown Policies », Journal of Public Economics, n° 109 (104260).

Auray Stéphane et Aurélien Eyquem, 2022, « Optimal Unemployment Insurance in a THANK Model », OFCE Working Paper, n° 07/2022.

Bock Sébastien, Bruno Coquet, Magali Dauvin et Eric Heyer, 2022, « Le marché du travail au cours du dernier quinquennat », OFCE Policy Brief, n° 103, mars.

Ravn Morten O. et Vincent Sterk, 2017, « Job Uncertainty and Deep Recessions », Journal of Monetary Economics, n° 90 (C), pp. 125-141.


[1] Ces motifs d’assurance et de stabilisation de la demande agrégée sont d’autant plus forts dans notre modèle que les prix et des salaires réels sont rigides. Ainsi, en présence de rigidité des prix et des salaires réels, le taux de remplacement doit augmenter en conséquence.

[2] Si ce n’est pas l’objet de ce billet, il faut noter que ces instruments peuvent être utilisés conjointement. Dans notre article, nous considérons qu’une politique monétaire optimale peut accompagner une politique d’assurance chômage optimale. Les effets de cette politique monétaire optimale ne seront pas détaillés dans ce billet mais sont détaillés dans Auray et Eyquem (2022).

[3] C’est en ce sens qu’on parle de choc positif de séparation car cela pousse les firmes à augmenter le taux de séparation (de leur masse salariale). Par exemple, la politique de confinement sanitaire liée à la pandémie de Covid-19, en contraignant certaines entreprises à cesser leur activité a pu conduire à détruire des relations d’emploi.




Inflation en Europe : les conséquences sociales de la guerre en Ukraine

par Guillaume AllègreFrançois GeerolfXavier Timbeau






Que les riches lèvent le doigt !

par Guillaume Allègre

L’Observatoire des inégalités a publié en juin son rapport sur les riches en France. La discussion s’est focalisée sur la définition d’un « seuil de richesse ».  Plusieurs limites du seuil retenu sont exposées et discutées dans le rapport. Nous proposons dans ce billet de les prolonger et de proposer un seuil de richesse alternatif, combinant revenus et patrimoine.

L’approche de l’Observatoire des inégalités est légitime et bienvenue. Définir un seuil de richesse est conventionnel mais permet, une fois la convention acceptée, de répondre à des questions en termes d’évolution de la proportion de riches et de comparaison internationale. Cela permet aussi de répondre à la question « qui est riche ? » et de regarder les évolutions de la composition. En réalité, la définition d’un seuil de richesse étant arbitraire, les réponses à « qui ? » et « combien ? » vont dépendre en grande partie de ces arbitrages. L’intérêt réside souvent alors dans les évolutions et les comparaisons internationales. Comme noté par les auteurs du rapport, le seuil de richesse et la proportion de riches dans la population ne sont pas définis ou calculés par les instituts statistiques au niveau national (INSEE) ou européen (Eurostat), contrairement au seuil et au taux de pauvreté. On comprend aisément pourquoi : il existe un consensus politique pour lutter contre la pauvreté, mais pas pour lutter contre la richesse[1]. Pour certains, lutter contre la richesse relèverait de l’envie ou de jalousie[2], tandis que d’autres soulignent l’indécence de la richesse tant que la pauvreté subsiste (OXFAM se demandait chaque année combien de personnes sont aussi fortunées que les 3,6 milliards de personnes les plus pauvres soit la moitié de la population mondiale : la réponse en 2017 était 8[3]). Quelle que soit son opinion politique, il y a un mérite à répondre aux questions descriptives, mérite qui ici revient à l’Observatoire des inégalités.



La discussion publique s’est focalisée sur le niveau du seuil de richesse proposé par l’Observatoire et la réponse à la question : « Etes-vous riche ? » (également )[4]. L’Observatoire répond oui si vous avez plus de 3 673 euros de revenus par mois pour une personne seule et 7 700 pour un couple avec deux enfants. Le seuil est fixé de façon conventionnelle à deux fois le niveau de vie médian et donc à quatre fois le seuil de pauvreté à 50%. Aujourd’hui le seuil de pauvreté utilisé par les institutions est plutôt de 60% du niveau de vie médian mais l’observatoire plaide depuis longtemps pour l’utilisation d’un seuil à 50% plus proche de la représentation commune de la pauvreté[5]. C’est une autre question mais qui pose en symétrie la question du seuil de richesse retenu ici et qui peut paraître relativement bas (pour certains). « A 3 700 euros et (rajouter un contexte défavorable comme locataire à Paris), on n’est pas riche » !  Cette phrase est objectivement vraie : si vous êtes au seuil de richesse mais vivant dans un contexte défavorable, non pris en compte par l’indicateur (qui ne considère que le revenu disponible et la composition familiale), alors vous êtes objectivement moins riche et donc sous le ‘vrai’ seuil de richesse. En proposant un classement complet avec un nombre de variables limité, on se heurte inévitablement à des erreurs de classement. Se pose aussi la question du niveau absolu : à 3 700 euros on ne serait pas riche. Louis Maurin, directeur de l’Observatoire des inégalités, propose une lecture politique : « penser que la répartition des richesses se résume au combat des 99 % d’en « bas » contre le 1 % du haut de la pyramide, comme le dit le plus souvent la gauche française, est démagogique ». L’idée est de souligner qu’en prenant un seuil comparable au seuil de pauvreté, on peut définir la richesse à partir d’un niveau de revenu auquel les personnes se définissent aujourd’hui dans la classe moyenne supérieure. Utiliser le seuil de 2 fois le niveau de vie médian permet de déconstruire la catégorie floue, un peu trop confortable, de classe moyenne supérieure[6].

Le seuil à 200% reste tout de même arbitraire. L’avantage du seuil de pauvreté à 60% est qu’il a été débattu et choisi dans un processus politique européen (la France utilisait 50% auparavant), ce qui lui donne une forme de légitimité. Une alternative est d’utiliser plusieurs seuils (0,1%, 1%, 10%), comme le fait à certains endroits le rapport. Après tout, le revenu est une variable continue : on est toujours plus ou moins riche, plutôt que riche ou non-riche. Il est possible d’utiliser des représentations continues, comme le fait Piketty depuis un certain nombre d’années, avec des moyennes par décile de niveau de vie et un zoom sur les 1 et 0,1% les plus aisés. Ce type de représentations s’impose de plus en plus dans les sciences sociales, notamment grâce à l’accès à des données plus précises. Les déciles de niveau de vie remplacent petit à petit le concept de classes sociales (ou définissent ses contours). Paradoxalement, l’Observatoire penche plutôt pour une vision continue des inégalités… en introduisant un seuil de richesse dans un objectif de mise sur l’agenda politique.  Il y a en effet plusieurs façons de mesurer le chômage, la pauvreté ou la richesse nationale. Multiplier les indicateurs permet de mieux appréhender les différentes facettes d’une réalité complexe mais se mettre d’accord sur un seul indicateur (taux de chômage, taux de pauvreté, Pib) permet d’éviter le cherry picking[7] dans le débat public.

Outre le niveau du seuil, une autre controverse importante concerne l’utilisation du seul revenu comme variable pertinente de richesse sans tenir compte du patrimoine. Madec et Pucci comparent seuil de richesse et budget décent selon le statut d’occupation du logement, le territoire et la composition familiale. La première question posée est : « comment comparer un propriétaire sans frais d’emprunt et un locataire (ayant signé son bail récemment dans une ville tendue) ? ». La question est légitime : dans le sens commun, ces deux individus ne sont pas aussi riches même s’ils ont le même revenu. La question se pose aussi pour le taux de pauvreté. Une solution – proposée dans le rapport – est d’« ajouter aux revenus des ménages propriétaires de leur logement l’équivalent de la valeur des loyers qu’ils ne paient pas, contrairement aux autres » : soit les fameux « loyers fictifs ». Dans ce cas, il faudrait aussi ajouter un avantage HLM pour les locataires du parc social.

Ignorer l’effet de la propriété est d’autant plus dommageable que le terme de richesse renvoie souvent dans l’imaginaire à l’idée de fortune, plus qu’à celui de hauts-revenus[8]. En effet, pendant très longtemps, les riches étaient ceux qui avaient du capital et les revenus qui vont avec : étaient riches ceux qui pouvaient vivre sans travailler. Puis, le poids du capital a beaucoup baissé : de 7 fois le revenu national en 1910, il passe à un peu plus de 2 fois en 1950… pour remonter à moins de 6 fois en 2010 (Piketty, Le Capital au XXe siècle). Il y a tout de même deux très grandes différences entre 1910 et 2010 ou aujourd’hui : la constitution d’une classe moyenne patrimoniale, à base majoritairement d’immobilier, et le fait qu’en 2010 les hauts revenus ont tendance à également être les hauts patrimoines et inversement : Milanovic parle d’Homoploutia. Les détenteurs de hauts patrimoines ont tendance à travailler et avoir des hauts revenus, et les personnes à hauts revenus ont du patrimoine et/ou vont hériter. Mais ce qui est vrai en tendance ne l’est pas pour tous, ni même pour la plupart lorsque l’on regarde à un niveau fin (Figure 3, page 12). Or, il est facile de calculer qu’un individu au seuil de richesse selon l’Observatoire peut emprunter aujourd’hui, pour un taux d’endettement à 35%, de quoi acheter un… 30m2 à Paris, ce qui le placerait pratiquement au niveau du seuil de surpeuplement modéré selon l’INSEE (25m2 pour une personne seule) ! Cette personne si elle décide de devenir propriétaire pourrait être riche au sens de l’Observatoire des inégalités, mais pauvre en logement, avec un actif net de dettes qui pourrait devenir négatif si les prix de l’immobilier chutaient !

Puisque revenus et patrimoine – au-delà de la seule résidence principale – comptent pour déterminer la position économique des individus et foyers, il paraît souhaitable de combiner les deux dimensions dans un indicateur de « richesse ». Ceci est pertinent car tous les patrimoines ne génèrent pas de revenus – contrairement aussi à 1910. Les statistiques officielles ne comptent pas comme revenu les loyers des propriétaires occupant d’un logement, principal comme secondaire, alors que c’est une charge pour les locataires : à revenu déclaré ou disponible égal, l’aisance financière des premiers est objectivement plus importante que celle des seconds. D’autres actifs financiers ne procurent pas toujours des dividendes bien qu’ils génèrent des plus-values. Pour tenir compte de la richesse provenant de la possession d’un patrimoine – même en dehors des revenus imposables qu’il génère – on pourrait ajouter aux revenus hors patrimoine des revenus (fictifs) du patrimoine équivalent à 4% de la valeur du patrimoine (nette des dettes), ce qui correspond environ au rendement moyen du capital (et à un rendement locatif net). En pratique, si l’on ajoute les revenus fictifs procurés par le double du patrimoine médian (330 000 euros), il faut rajouter environ 1 100 euros de revenu du patrimoine fictif par foyer. Le seuil de richesse pourrait ainsi passer de 3 700 euros mensuels à 4 800[9].

La méthode qui consiste à combiner revenus réels du travail et revenus fictifs du patrimoine est utilisée par la fiscalité néerlandaise : jusqu’en 2021 elle considérait que les patrimoines génèrent en moyenne 4% de revenus et taxait ces gains à l’impôt sur le revenu de façon forfaitaire (à un taux de 31%), ce qui revenait à un impôt sur la fortune à 1,2% (et à défiscaliser les revenus réels du patrimoine)[10].

Mais on s’avance : la fiscalisation des loyers fictifs est une proposition hautement inflammable. L’idée ici n’est pas de proposer un impôt supplémentaire mais de mieux décrire une réalité perceptible par tous : mieux vaut être riche en revenus et en patrimoine qu’être riche en revenus et pauvre en patrimoine[11].  Mais s’il ne serait pas très heureux de vouloir combiner dans un indicateur synthétique santé et revenus, ce n’est pas le cas pour revenus et patrimoine : alors que santé et revenus sont complémentaires pour atteindre un certain niveau de bien-être, revenus et patrimoine sont en grande partie substituables pour définir l’aisance financière ou la richesse.

Pour finir, il est intéressant de noter que ce billet, celui de Madec et Pucci, celui de Damon, de même que l’article du Monde (« Peut-on déterminer un  seuil de richesse comme on définit un seuil de pauvreté » ? ) et d’autres articles dans la presse et sur internet discutent de l’indicateur de richesse. Par contre, personne ou presque ne discute de ce que l’indicateur indique : le « taux de richesse » baisse assez fortement en France (de 9% en 2011 à 7,1% en 2019). Or, si l’on veut mettre un indicateur à l’agenda public, il faut favoriser une discussion non pas seulement sur l’indicateur mais sur ce qu’il mesure (« pourquoi la proportion de riches baisse-t-elle ? »). Le problème en l’occurrence est qu’aucun acteur investi n’y a un intérêt immédiat. Ceux qui sont plutôt favorables à des politiques publiques volontaristes de réduction des inégalités dans le haut de l’échelle seront réticents à communiquer sur une baisse de ces inégalités en l’absence de ces politiques et ceux qui n’y sont pas favorables n’ont pas intérêt à ce que ce débat ait lieu : rien de mieux que la discrétion. A cette discrétion, préférons la publicité donnée par l’Observatoire des inégalités.


[1] On me signale que compter n’a pas nécessairement d’implications normatives, ce qui peut être juste en général mais faux dans ce cas particulier. C’est manifeste pour le taux de pauvreté qui est un indicateur descriptif mais qui a une grande normativité car il est entendu que la pauvreté doit être réduite. Construire un indicateur de richesse de façon symétrique à l’indicateur de pauvreté, c’est-à-dire comme un indicateur d’inégalités relatives, c’est implicitement faire passer le message qu’il faut lutter contre toutes les inégalités, dans le bas comme dans le haut de la distribution.

[2] Ce thème est surtout prégnant dans le débat public américain, voir : https://www.forbes.com/sites/taxnotes/2021/08/09/envy-doesnt-explain-soak-the-rich-taxation/?sh=71b4858872d2

[3] L’association a apparemment arrêté ce comptage, peut-être parce que les plus pauvres au niveau mondial n’ont pas de patrimoine : chaque Français n’étant pas à découvert sur son compte en banque avait donc un patrimoine supérieur à celui, cumulé, d’une grosse partie de l’humanité.

[4] Le parallèle avec la pauvreté s’arrête là : aucun magazine sur internet ne demande « êtes-vous pauvre ? » à ses lecteurs.

[5] https://www.inegalites.fr/pauvre-exageration : « Du point de vue des revenus stricto sensu, il faudrait distinguer la population pauvre des catégories les plus modestes. C’est pourquoi l’Observatoire des inégalités publie les différents seuils mais utilise dans ses analyses, quand c’est possible, le seuil à 50 % ».

[6] Les économistes ont tendance à définir les classes selon le niveau de vie relatif. Par exemple, les 10% les plus bas revenus (D1) sont les pauvres ; les 40% suivant les classes populaires (D2-D5) ; les 40% suivant les classes moyennes (D6-D9) et les 10% les plus hauts revenus (D10), les aisés.  L’avantage de cette convention est une relative symétrie. L’inconvénient est que les « classes moyennes » sont celles qui ont un niveau de vie supérieur à la médiane, ce qui est difficile à comprendre si l’on n’utilise plus une classification en trois classes : ouvrière, moyenne, supérieure (le moyen étant alors justifié par la centralité sociale entre les deux autres classes). La classe moyenne supérieure est parfois définie comme D9, ou alternativement C90-99 (les 10% les plus aisés moins les 1%). Ces individus sont en effet beaucoup moins riches que les 1% mais ce groupe n’a rien de moyen, la classe moyenne ayant déjà des revenus supérieurs à la moyenne.

[7] Technique argumentative consistant à choisir les seuls faits ou données qui servent votre propos.

[8] Le rapport discute également d’un seuil de fortune à 3 fois le patrimoine médian. Richesse en revenus et fortune en patrimoine sont discutées séparément alors que, selon l’approche proposée ici, elles se combinent.

[9] Le seuil réel dépend de la corrélation fine entre revenus et patrimoine et ne peut être obtenu qu’avec des micro-données croisant revenus et patrimoine.

[10] Depuis 2021, l’ancien taux de 4% est progressif : de 1,82% pour un patrimoine net de 51 000 euros à 5,53% pour un patrimoine supérieur à 1 013 000 euros.  Ceci permet de rendre cet impôt sur la fortune progressif.

[11] Comme l’objectif est descriptif, il n’est pas nécessaire de prendre en compte des situations particulières comme l’agriculteur retraité de l’Ile de Ré dont la maison a une valeur marchande qui a beaucoup augmenté alors que sa valeur d’usage est restée constante (voire a baissé s’il préférait ses voisins agriculteurs, aux maisons secondaires inoccupées l’hiver). La fiscalité, par contre, doit être robuste à certains cas particuliers non traités dans le cadre de cette proposition d’indicateur.




Pouvoir d’achat : quel impact de l’évolution à venir des loyers ?

par Pierre Madec

L’indice de référence des loyers (IRL) défini par l’Insee sert de base à la révision des loyers des logements vides ou meublés. Calculé à partir de l’évolution sur les 12 derniers mois, de la moyenne trimestrielle des prix à la consommation hors tabac et hors loyers, il fixe le plafond des augmentations annuelles des loyers que peuvent exiger les propriétaires lors du renouvellement de bail ou en cours de bail. Dans 28 agglomérations françaises l’évolution des loyers est également encadrée lors du changement de locataire et celle-ci ne peut, hors conditions exceptionnelles, être supérieure à l’évolution de l’IRL[1]. Entre le premier trimestre 2021 et le premier trimestre 2022, l’IRL a augmenté de 2,5%. Selon nos prévisions, l’indice de référence des loyers se situerait au quatrième trimestre 2022 à un niveau 5% supérieur à celui observé à la fin de l’année 2021.



Quel impact d’une revalorisation « normale » des loyers ?

Selon les comptes du logement du ministère de la Transition écologique, les loyers s’élevaient en 2020 à 52 milliards dans le parc privé et à 25 milliards d’euros dans le parc social. Dès lors, une augmentation de 5% des loyers dans le parc privé augmenterait, toutes choses égales par ailleurs, de 370 euros en moyenne la dépense annuelle en logement des ménages locataires et entraînerait un gain de revenu de l’ordre de 600 euros pour les propriétaires (il y a 3,5 millions de multipropriétaires). Dans le parc social, une hausse de 5% des loyers augmenterait en moyenne de 230 euros la dépense annuelle en logement des ménages locataires. À l’inverse, un gel des loyers représenterait un manque à gagner de 1,2 milliard d’euros pour les bailleurs sociaux.

Notons que ces estimations reposent sur des hypothèses fortes puisque d’une part tous les propriétaires ne revalorisent pas les loyers en fonction de l’IRL. Par exemple, selon l’Observatoire des loyers en agglomération parisienne (OLAP), l’indexation sur l’IRL reste la règle à Paris et, dans une moindre mesure, en petite couronne pour les baux en cours ou lors du renouvellement de bail ; en revanche en grande couronne, le loyer reste majoritairement inchangé pour les locataires qui restent en place (80% des logements du parc locatif privé). D’autre part, ces estimations ne tiennent compte ni des dates d’anniversaire des baux en cours (certains loyers ne seront revalorisés qu’en 2023), ni des changements possibles de locataires au sein des mêmes logements (changement de bail).

Quel impact redistributif d’une revalorisation « normale » des loyers dans le parc privé ?

Sur la base de ces mêmes hypothèses et des données du modèle de micro-simulation Ines, il est possible d’estimer l’impact redistributif d’une revalorisation globale de 5% des loyers du parc privé selon les déciles de niveau de vie. Sans surprise, l’impact est négatif négatif dans le bas de la distribution où les locataires du parc privé sont davantage présents que les propriétaires. Dans le haut de la distribution, où les bailleurs sont sur-représentés et les locataires du parc privé peu présents, l’impact est largement positif (Graphique). Si, une fois encore, les résultats de ces simulations sont à prendre avec précaution[2], ils illustrent l’enjeu redistributif de l’arbitrage politique concernant les revalorisations de loyers.

Quelle(s) réponse(s) à l’augmentation attendue des loyers ?

Face à la hausse attendue des loyers en fin d’année (et en début d’année prochaine), la ministre en charge du logement a déclaré : « Face à l’inflation, nous protégeons les Français avec le ‘bouclier loyers’ qui plafonne pendant un an leur augmentation maximum à 3,5 % contre plus de 5 % d’ici à la fin de l’année si nous n’agissons pas. Dans le même temps, nous revalorisons dès juillet les APL de 3,5% ». Cette réponse est-elle suffisante ?

En théorie, la réponse apportée par le gouvernement permettrait de protéger les locataires les plus modestes tout en évitant de trop pénaliser les bailleurs. Les locataires non bénéficiaires des aides au logement verraient certes leur loyer augmenter mais moins qu’anticipé. Dans les faits, du fait de l’importante déconnexion entre les loyers pris en compte pour le calcul des aides personnelles au logement et les loyers réellement acquittés par les locataires, après versement des aides, la revalorisation des plafonds de 3,5% ne compense pas intégralement les potentielles augmentations de loyers à venir, même plafonnées.

Selon nos estimations, une augmentation de 3,5% du loyer des allocataires d’aides personnelles au logement représenterait une augmentation de l’ordre 1,2 milliard d’euros du total des loyers versés dont seuls 810 millions seraient couverts par l’augmentation du plafond des APL. Néanmoins, la mesure d’augmentation des APL, très ciblée sur les ménages les plus modestes, permettrait de protéger ces ménages des augmentations de loyers à venir (Graphique 2a et 2b).

Au total, selon nos estimations, la « sous-revalorisation des loyers » se traduirait par un manque à gagner de l’ordre de 1,1 milliard d’euros pour l’ensemble des bailleurs (privé et sociaux). L’augmentation de 3,5% pèserait elle pour 2,6 milliards d’euros sur le reste à vivre des ménages locataires, cette baisse du reste à vivre étant compensée partiellement par l’État à travers l’augmentation de 810 millions d’euros des aides personnelles au logement.


[1] Le Bayon Sabine, Pierre Madec et Christine Rifflart, « L’encadrement des loyers : quels effets en attendre ? », Revue de l’OFCE, vol. 1, n° 8, 2012, pp. 103-124.

[2] Ils ne constituent pas une prévision de l’impact redistributif d’une indexation des loyers sur l’IRL, du fait notamment des hypothèses explicitées précédemment.




Pouvoir d’achat : faut-il une revalorisation « accélérée » des prestations sociales ?

par Pierre Madec

En 2015, le calcul de la revalorisation des prestations sociales (pensions de retraites, allocations familiales, minima sociaux, …) a été modifié. Les prestations sociales étaient jusqu’alors revalorisées soit en janvier (pensions de retraite) soit en avril (autres prestations sociales hors APL), sur la base d’une prévision d’inflation avec un correctif possible en fin d’année en cas d’inflation plus élevée. Désormais, les prestations sociales sont revalorisées le 1er avril, à l’exception des retraites qui sont revalorisées le 1er janvier, sur la base de l’évolution moyenne annuelle de l’indice des prix à la consommation (hors tabac) observée au cours des 12 derniers mois.



Sur la base de ce mode d’indexation, les pensions de retraite ont été revalorisées de 1,1% au 1er janvier (évolution moyenne sur 12 mois de l’indice des prix hors tabac observé entre novembre 2020 et octobre 2021) et les autres prestations sociales de 1,8% au 1er avril 2022 (évolution moyenne sur 12 mois de l’indice des prix hors tabac observée entre février 2021 et janvier 2022) alors même qu’en avril 2022, le glissement annuel de l’indice des prix à la consommation s’élevait à 4,8% … Ce décalage entre la revalorisation à partir de l’inflation moyenne passée et la hausse de l’inflation en cours a de fait généré une perte de pouvoir d’achat importante des prestations sociales pour les ménages allocataires au cours des derniers mois.

À l’aide de l’enquête Budget des familles de l’Insee[1] et sur la base de notre prévision d’inflation pour les trois prochains trimestres, nous estimons la contribution des revalorisations des prestations à la baisse du pouvoir d’achat pour 2022, par décile de niveau de vie (Graphique 1)  :  en moyenne sur l’année, les ménages du premier décile de niveau de vie (les 10% les plus modestes) devraient connaître une baisse de leur pouvoir d’achat de 2% par rapport à 2021 du seul fait de la méthode d’indexation des prestations sociales[2]. La faible hausse des pensions de retraite en 2022 liée au calcul de revalorisation en début d’année amputerait jusqu’à 1,8% le pouvoir d’achat des ménages appartenant au quatrième décile de niveau de vie.

Conscient des enjeux, le gouvernement prévoit d’accélérer le calendrier habituel et
propose une revalorisation « exceptionnelle » des prestations sociales en juillet 2022 pour
contrer les effets décrits précédemment. Selon les déclarations récentes de la Première
ministre, les pensions de retraite et les autres prestations sociales devraient être revalorisées de 4 % en juillet 2022. Selon nos estimations et sous l’hypothèse de notre prévision de prix jusqu’à la fin de l’année, cette revalorisation permettrait d’améliorer légèrement le pouvoir d’achat des 10 % des ménages les plus modestes (+0,2 %). Cette revalorisation exceptionnelle ne permettrait pas de compenser totalement les pertes de pouvoir d’achat subies par les ménages retraités, plus présents dans le haut de la distribution de niveau de vie, mais leurs pertes potentielles devraient être très limitées et sans commune mesure avec celles prévues hors revalorisation (graphique 2).


[1] Pour plus de détails voir « Hausse de prix à la consommation : au mois de mars près d’un quart des ménages ont perdu du pouvoir d’achat malgré les dispositifs mis en place », Raul Sampognaro, Blog de l’OFCE, avril 2022.

[2] Ne sont ici pas prises en compte les évolutions possibles des autres revenus (salaires, revenus du patrimoine, …).




Seuil de richesse : une avancée nécessaire mais encore insuffisante

par Pierre Madec et Muriel Pucci-Porte

Le 1er juin dernier, l’Observatoire des inégalités publiait son « Rapport sur les riches en France ». Au-delà des discussions instructives sur les composantes de la richesse (patrimoine, conditions de vie, …), les auteurs fixent un « seuil de richesse », se voulant le pendant du seuil de pauvreté, et tentent ainsi de quantifier à la fois le nombre de « riches » en France et l’évolution de ce dernier[1].

Nous ne reviendrons pas ici sur la pertinence du niveau du seuil retenu mais tenterons plutôt d’éclairer (brièvement) le débat d’une part sur la nécessité de fixer un seuil de richesse et d’autre part sur les limites de l’indicateur adopté.



Chaque année, l’Insee publie à la fois le taux de pauvreté monétaire pour l’année N-2 mais aussi une estimation avancée (nowcasting) du taux de pauvreté monétaire pour l’année N-1. Le taux de pauvreté monétaire retenu dans ces études est la part des individus vivant dans un ménage dont le niveau de vie[2] est inférieur au seuil de pauvreté, lequel est fixé à 60% du niveau de vie médian (celui qui partage la population en deux).

Par symétrie, l’Observatoire des inégalités a fixé le seuil de richesse à deux fois le niveau de vie médian. Pour rappel, l’Observatoire des inégalités n’est pas le seul à s’interroger sur ces questions et à fixer un seuil tentant d’isoler les ménages les plus riches. En 2017, l’Insee fixait un « seuil d’aisance » à 1,8 fois le niveau de vie médian[3].

Seuil de richesse : quel intérêt ?

Les publications annuelles sur le taux de pauvreté monétaire et son évolution observée ou estimée donnent une mesure de l’impact sur la pauvreté des évolutions des revenus primaires d’une part et des réformes socio-fiscales d’autre part. Elles permettent donc d’estimer, par exemple, l’effet d’une baisse du chômage sur l’évolution de la pauvreté monétaire. Elles permettent également de mesurer l’impact de la baisse ou la hausse de telle ou telle prestation sur la part des individus vivant sous le seuil de pauvreté. En dépit des limites de cet indicateur, la fixation d’un seuil de pauvreté et l’analyse de l’évolution du nombre de personnes pauvres a donc un intérêt pour le pilotage des politiques économiques. Il y a fort à parier que l’élaboration d’un « seuil de richesse » ait un intérêt similaire. Il permettrait en effet de suivre l’impact de l’évolution des revenus primaires et des réformes (fiscales en particulier) sur le nombre de « riches ».

À l’heure actuelle, il existe déjà des indicateurs de suivi du niveau et de la composition du revenu des ménages les plus aisés. L’analyse des 20 %, 10 %, 5 %, 1 % ou encore 0,1 % des individus aux plus hauts niveaux de vie répond en partie aux besoins décrits précédemment. Néanmoins ces indicateurs ont une limite essentielle : ils ne permettent pas de « suivre » l’évolution du nombre des personnes « riches » : les 10% des plus riches seront toujours 10%. À l’opposé, la part des ménages au-dessus d’un seuil de richesse a lui vocation à évoluer au gré des évolutions socioéconomiques et c’est l’analyse de cette évolution qui a un intérêt particulier. Tout comme on analyse combien de ménages sortent de la pauvreté grâce au système redistributif, nous pourrions analyser combien de ménages « sortent » de la richesse du fait de la fiscalité, entrent ou sortent de la richesse à la suite d’une réforme…

Seuil de richesse : quelles limites ?

Par nature, un seuil est discutable et arbitraire. Celui visant à quantifier la richesse l’est d’autant plus qu’il est bien compliqué de borner celle-ci. L’écart de niveau de vie entre les ménages vivant sous le seuil de pauvreté et ceux vivant au niveau du seuil est en théorie inférieur à deux (écart entre le RSA et le seuil de pauvreté). À l’inverse, l’écart de niveau de vie entre les ménages vivant au-dessus du seuil de richesse n’a pas de limite supérieure.

Dans les faits, les situations de « richesse » dissimulent beaucoup d’hétérogénéités. En outre, comme le souligne l’Observatoire des inégalités, la définition d’un seuil à comparer au seul revenu disponible ne saurait être suffisant à l’analyse de la « richesse ». Les questions relatives au patrimoine sont déterminantes. En outre, à l’image des enjeux autour de l’intensité de la pauvreté, le suivi de l’intensité de la richesse, c’est-à-dire de savoir « à quel point les riches sont riches », apporterait beaucoup au débat, notamment lorsqu’il s’agit de comparaisons internationales.

Enfin, tout comme il existe aujourd’hui des indicateurs de pauvreté non monétaire qui rendent compte de privations ou de difficultés subies par les ménages à bas revenu (ressources insuffisantes, retards de paiement, restrictions de consommation, difficultés liées au logement), il pourrait exister un (ou plusieurs) indicateur(s) de richesse non monétaire témoignant de la qualité de vie des plus aisés (voyages, consommation de biens de luxe, possession de plusieurs logements…).

Il est intéressant de rappeler que la pauvreté non monétaire ne recoupe que partiellement la pauvreté monétaire. Ainsi, en 2019, en France métropolitaine, on constate que 13,6% de la population est pauvre au sens monétaire et 13,1 % l’est au sens non monétaire (selon l’indicateur européen de pauvreté non monétaire (la privation matérielle et sociale), mais seulement 5,7 % l’est selon les deux critères à la fois[4]. Cette non concordance tient au fait que le seuil de pauvreté monétaire ne dépend ni du lieu de vie, qui détermine notamment l’accès aux services publics, le coût du transport et celui des loisirs, ni du statut d’occupation du logement (propriétaire, accédant à la propriété, locataire du parc privé ou en HLM) qui détermine le coût du logement. Mais à composition familiale et revenu disponible similaires, les conditions de vie sont différentes quand on est locataire du parc privé à Paris ou propriétaire à la campagne, et selon les cas, le seuil de revenu disponible en deçà duquel les privations commencent à se faire ressentir diffère.

Le seuil de richesse retenu par l’Observatoire des inégalités étant construit symétriquement au seuil de pauvreté, il en partage les lacunes : avec un niveau de vie égal au seuil on n’a pas la même qualité de vie et les mêmes possibilités de financer des vacances, des loisirs etc… quand on est locataire du parc privé à Paris ou propriétaire à la campagne, quand on est actif ou retraité. Cela tient au fait que le budget nécessaire pour couvrir les besoins élémentaires diffère selon les cas.

Illustration : des inégalités importantes entre statut d’occupation et territoire.

En France, l’Observatoire national de la pauvreté et de l’exclusion sociale (ONPES[5]) a fait évaluer le revenu nécessaire pour vivre décemment, sans contrainte, et participer à la vie sociale (un minimum de sorties, de loisirs et de vacances notamment). Ces budgets de référence ont été construits à partir de « paniers de biens et services » définis par des groupes de consensus formés de citoyens. Pour le rapport Onpes 2020-2021 (à paraître), ces budgets de référence ont ensuite été valorisés par des experts (Credoc et Ires) aux prix de 2018. Ils ont été définis pour des ménages vivant en zone rurale, dans les villes moyennes et dans la métropole du Grand-Paris, pour des personnes seules et des couples sans enfant, retraités ou actifs, et pour des familles monoparentales ou couples avec deux enfants dont les parents sont actifs.

Ces budgets permettent de donner une valeur monétaire aux besoins spécifiques des ménages directement comparables grâce à leur revenu disponible. On peut considérer qu’être riche, au sens budgétaire, c’est avoir un revenu disponible significativement plus élevé que ce budget décent. La différence entre le revenu et le budget décent est alors un indicateur des marges dont dispose le ménage pour financer des vacances supplémentaires (au-delà de celles prévues dans les budgets), des biens de meilleure qualité ou en plus grande quantité que pour une vie décente.

Compte tenu des différences de coût de la vie sur le territoire et selon le statut d’occupation du logement, les personnes vivant au seuil de richesse tel qu’il est défini par l’Observatoire des inégalités, ne sont pas toutes à la même distance de leur budget décent (Graphique).

Pour des ménages vivant en zone rurale ou dans une ville moyenne, les célibataires et les couples (avec ou sans enfant) dont le revenu est égal au seuil de richesse perçoivent environ 2,85 fois le montant de leur budget décent. À ce même niveau de revenu, ils ont moins de budget excédentaire lorsqu’ils sont locataires du parc privé (2,3 à 2,6 fois le budget décent). Pour les familles monoparentales avec 2 enfants vivant en zone rurale ou dans une ville moyenne, les ménages ont moins de deux fois leur budget décent, sauf quand ils sont propriétaires dans une ville moyenne. Dans la métropole du Grand-Paris, seuls les couples avec 2 enfants et propriétaires de leur logement disposent d’un excédent de budget conséquent avec 2,7 fois le budget décent. Les autres propriétaires perçoivent environ 2,2 fois leur budget décent s’ils sont célibataires ou en couple sans enfant et seulement 1,9 fois leur budget décent s’ils sont parents isolés avec deux enfants âgés de 2 et 10 ans. Les locataires du parc privé dans la métropole du Grand-Paris dont le revenu est égal au seuil de richesse sont ceux qui ont le moins d’excédent et, en particulier, les célibataires n’ont que 1,65 fois leur budget décent et les parents isolés seulement 1,4 fois.

Cette illustration montre à quel point la prise en compte des disparités de coûts de la vie peut influer non seulement sur la perception mais également sur la réalité de la richesse. Bien que la fixation d’un seuil de richesse soit, sur le principe, à même d’apporter de nouveaux éléments à l’analyse de la distribution des revenus en France, il semble donc nécessaire d’aller plus loin. Bien évidemment, cette assertion s’applique tout autant à la mesure de la pauvreté.


[1] Indépendamment de la fixation du seuil, sujet à débat, Pierre Madec a contribué au rapport de l’Observatoire des inégalités en estimant l’évolution du « nombre de riches » en France en mobilisant les Enquêtes Revenus fiscaux et sociaux de l’Insee. Il n’est néanmoins nullement tributaire du contenu du rapport dont il partage tout de même nombre de ses conclusions.

[2] Dans le langage statistique et économique, l’expression « niveau de vie » renvoie à un indicateur construit pour chaque ménage en divisant son revenu disponible par le nombre d’unités de consommation vivant à l’intérieur du ménage afin de rendre comparables des ménages de taille et de composition différentes.

[3] « Les ménages médians : fortement hétérogènes en matière de patrimoine en dépit d’un niveau de vie comparable », Insee Référence, novembre 2017.

[4] Insee Focus, n° 245, septembre 2021. Les indicateurs définissent comme pauvres au sens non monétaire des personnes cumulant plusieurs difficultés ou privations dans une liste : 8 difficultés parmi 27 pour la pauvreté en conditions de vie, 3 parmi 9 pour la privation matérielle et 5 parmi 13 pour la privation matérielle et sociale. La liste exhaustive des items pour chacun des indicateurs y est indiquée.

[5] En 2019, l’ONPES a été fusionné avec le Conseil national des politiques de lutte contre la pauvreté et l’exclusion sociale (CNLE) dont les auteurs sont tous les deux membres du conseil scientifique.




Compte rendu du séminaire « Théorie et économie politique de l’Europe », Cevipof-OFCE, séance n° 4 du 8 avril 2022

La décolonisation numérique de l’Europe

Intervenants : Brunessen BERTRAND (Chaire DataGouv, Université de Rennes 1), Julien NOCETTI (Académie militaire de Saint-Cyr Coëtquidan & GEODE), Pierre NORO (Learning Planet Institute de l’Université Paris Cité)

Le séminaire « Théorie et économie politique de l’Europe », organisé conjointement par le Cevipof et l’OFCE (Sciences Po), vise à interroger, au travers d’une démarche pluridisciplinaire systématique, la place de la puissance publique en Europe, à l’heure du réordonnancement de l’ordre géopolitique mondial, d’un capitalisme néolibéral arrivé en fin du cycle et du délitement des équilibres démocratiques face aux urgences du changement climatique. La théorie politique doit être le vecteur d’une pensée d’ensemble des soutenabilités écologiques, sociales, démocratiques et géopolitiques, source de propositions normatives tout autant qu’opérationnelles pour être utile aux sociétés. Elle doit engager un dialogue étroit avec l’économie qui elle-même, en retour, doit également intégrer une réflexivité socio-politique à ses analyses et propositions macroéconomiques, tout en gardant en vue les contraintes du cadre juridique.

Réunissant des chercheurs d’horizons disciplinaires divers, mais également des acteurs de l’intégration européenne (diplomates, hauts fonctionnaires, prospectivistes, avocats, industriels etc.), chaque séance du séminaire donnera lieu à un compte rendu publié sur les sites du Cevipof et de l’OFCE.

***

La perspective géostratégique : hiérarchiser les niveaux de dépendance numérique de l’Europe

Julien Nocetti, chercheur à l’Académie militaire de Saint-Cyr Coëtquidan et à GEODE, souligne que la notion de souveraineté numérique n’est pas appréhendée de la même manière selon les différents acteurs européens. La montée en puissance de la notion de souveraineté numérique peut se dater à partir des révélations d’Edward Snowden en 2013 sur les activités de surveillance et d’espionnage d’Internet et des réseaux de téléphonie mobile opérées par les Etats-Unis via la NSA (National Security Agency), ainsi que la prise de conscience de l’ampleur du pouvoir des plateformes numériques américaines sur les sociétés européennes. En Occident, le thème est dans un premier temps principalement porté par les parlementaires et les entrepreneurs du numérique, beaucoup moins par les gouvernements. Quant aux régimes autoritaires, ils ont pensé de longue date la souveraineté numérique sous le prisme du contrôle de l’information. Il s’agit là d’un biais que nos démocraties européennes doivent bien se garder d’adopter en matière de respect de la vie privée et de tyrannie de la transparence en ligne, au risque d’un certain alignement des pratiques numériques entre démocraties et régimes autoritaires.



La souveraineté numérique européenne correspond à l’idée de projeter l’UE en tant qu’acteur du numérique dans les différentes enceintes internationales. Les Etats membres de l’UE ont désormais bien conscience de l’effet de grignotage ou de dépeçage de leurs prérogatives étatiques produit par la puissance des géants du numériques américains (« GAFAM »), acteurs privés régis par le droit étasunien, et chinois (« BATX »). La souveraineté numérique européenne diffère en cela de l’acception américaine des enjeux du numérique, davantage appréhendés à travers le prisme de la sécurité nationale et des intérêts nationaux, et non de la souveraineté. Cette opposition conceptuelle du sujet entre Européens et Américains se révèle particulièrement dans la difficulté des Européens à penser le phénomène de déspatialisation des relations internationales, avec une grande difficulté à juridiciser cette déspatialisation, quand les Etats-Unis ont été très prompts à comprendre et s’adapter à cette nouvelle donne : en compensant la perte en contrôle effectif de l’espace par le déploiement d’un pouvoir déterritorialisé (la « maîtrise des signes hors sol du pouvoir »).

Il faut relever une évolution significative de la compréhension du numérique en Europe, entre 2010 et aujourd’hui. Il y a dix ans, la question était de savoir qui contrôlait Internet. Aujourd’hui, avec l’extension exponentielle du champ du numérique, l’attention se focalise sur la maîtrise des technologies émergentes critiques (5G, IA, quantique, approvisionnement en semi-conducteurs, maîtrise d’algorithmes sensibles), avec en arrière-fond constant la dimension de l’autonomie stratégique numérique, véritable « buzz word » qui s’est répandu au sein de la bulle bruxelloise. Les Etats membres du Nord et de la baltique ont une approche plus prosaïque du sujet, avec l’enjeu de maintenir une capacité d’action européenne dans ces domaines et d’identifier les dépendances numériques les plus critiques (les semi-conducteur), ce qui suppose être en mesure de hiérarchiser les niveaux de dépendance (et de dépasser ainsi une approche trop strictement centrée sur l’idée de « décolonisation numérique »). Car le débat européen, spécifiquement en France, peut avoir tendance à se focaliser de manière obsessionnelle sur les GAFAM[1], sans percevoir toute la complexité du sujet.

La perspective juridique : du marché unique du numérique à la transition numérique

Brunessen Bertrand, professeure de droit public et titulaire de la Chaire DataGouv à l’Université de Rennes 1, expose l’évolution du sujet du point de vue du droit européen. Pendant longtemps, le prisme a été celui du marché unique du numérique avec la question de l’adaptation des législations européennes à l’économie numérique. Un changement notable a lieu à partir de 2020 et la nouvelle Commission Von der Leyen qui substitue le paradigme de la transition numérique à celui du marché unique du numérique. L’Europe prend conscience de son retard, possiblement irrattrapable, en matière numérique et en fait alors un axe prioritaire et structurant de sa politique. On assiste aujourd’hui à un déblocage des compétences européennes. La pandémie du Covid-19 a précipité l’expansion des usages numériques comme des cyberattaques. Dans un laps de temps record, l’UE s’est dotée en matière de numérique d’une constellation normative (régulation des plateformes, des services numériques et des données, intelligence artificielle, droits et principes du numérique), d’une « boussole numérique », d’une politique budgétaire et d’un début de politique industrielle. L’UE cherche un modèle qui se distingue du modèle américain et du modèle chinois : un modèle fermement arrimé aux droits et aux valeurs européennes. On passe d’un objectif très économique à une véritable politique publique européenne du numérique.

Sur le plan de la base juridique, en l’absence de véritable transfert de compétence des États membres à l’UE en matière de numérique (sauf en matière de protection des données à caractère personnel), l’UE mobilise un ensemble très varié de dispositions des traités. Par exemple, l’UE peut aborder le numérique via sa compétence en matière de recherche et développement technologique et de l’espace (Article 4 § 3 TFUE)[2]. Plus généralement, l’UE instrumentalise la notion de marché intérieur au travers de la notion de marché unique du numérique. La base juridique semble fragile, mais la démarche générale est cohérente.

Sur le plan de relance européen, celui-ci affirme très fortement l’ambition de souveraineté numérique européenne qui se décline dans les dimensions du marché intérieur, de la politique de défense, de la politique économique et commerciale, de la politique industrielle, et de la défense des valeurs européennes. Chez les juristes, l’idée n’est plus taboue (même s’il n’est pas question de souveraineté au sens strict). Il s’agit bien de rendre aux États leur souveraineté dans l’espace numérique (selon une logique d’« empowerment » des États). Cette prise de conscience politique de grande difficulté à exister seul dans le cyberespace a permis de débloquer l’européanisation du secteur numérique, à la base très national et malgré un contexte de montée des populismes et de sentiment anti-européen.

La stratégie normative de l’UE dans le numérique s’appuie aujourd’hui sur une ambition juridique forte, avec la mobilisation d’outils d’extraterritorialité. 2020 est marqué par un foisonnement de productions institutionnelles et juridiques : livre blanc sur l’intelligence artificielle, stratégie numérique, stratégie sur les données, Digital Market Act, plan pour l’éducation numérique, actions dans les secteurs des fintechs et de la cybersécurité. L’UE démontre ainsi un fort tropisme juridique avec l’instrumentalisation du droit du marché intérieur et la revendication des principes et des valeurs consacrées dans les traités européens. L’enjeu est d’adapter sur le plan légistique les ambitions politiques, avec l’objectif de présenter une grande loi européenne par grand sujet numérique, et d’avoir ainsi une législation européenne identifiable dans le monde entier, comme emblème ou porte-drapeau, comme façon d’être au monde, en assumant l’extraterritorialité des lois européennes (pour l’accès au marché intérieur européen). L’UE semble ainsi esquisser les contours d’une diplomatie numérique qui assume un certain unilatéralisme en la matière, en jouant sur le « Brussels effect » (l’effet d’entrainement de la régulation européenne au niveau mondial).

La confiance numérique est une autre dimension essentielle du sujet, avec les conditions d’utilisation et d’appropriation du numérique par les usages. L’UE travaille sur les questions d’intermédiaires de confiance, de création d’une identité européenne sécurisée, ainsi que sur la cybersécurité et les certifications numériques.

Un dernier aspect du sujet est la défense, avec l’accent mis sur le double usage civil et militaire des technologies numériques. Lancé en 2021 et doté de 7,9 Md€ (pour la période 2021-2027), le Fonds européen de défense (FED) intègre ainsi une stratégie d’articulation entre les enjeux de défense et les enjeux technologiques numériques, avec une attention accrue aux chaines de valeurs européennes entre défense et innovations technologiques critiques. Il a vocation à soutenir les projets de synergie entre industries civiles, spatiales et de défense. Dans cette même logique, il est à noter que la « Boussole stratégique » européenne[3] accorde une place importance à la cyberdéfense.

La perspective décoloniale : sortir l’Europe de sa dépendance épistémologique

Pierre Noro, du Learning Planet Institute de l’Université Paris Cité et ancien coordinateur de la chaire « Digital, Gouvernance et Souveraineté » à Sciences Po, après avoir nuancé l’expression de « colonisation numérique », affirme néanmoins la pertinence de la pensée décoloniale pour penser la dépendance européenne en matière de numérique. Outre sa dépendance aux outils numériques, l’Europe est confrontée à une dépendance épistémologique. Ses besoins numériques ne sont pas définis en fonction des besoins européens, mais selon les outils numériques américains existants (prenons l’exemple de l’attribution à Microsoft de l’hébergement de la base de données médicales de l’État français, sans appel d’offre et donc sans définition des besoins). Cette dépendance épistémologique se nourrit du phénomène de pantouflage, avec des aller-retours de hauts fonctionnaires et de décideurs politiques français entre la sphère étatique et les grandes entreprises du numérique et les cabinets de conseil privé. Les GAFAM sont ainsi en mesure d’imposer à l’Europe un « impérialisme des besoins » qu’ils sont à même de définir selon leurs propres intérêts stratégiques. L’Europe connaît ainsi une « dépossession de ses propres besoins numériques ». Par exemple, il est impossible en France de contester la stratégie nationale de déploiement de la 5G, alors que la couverture Internet à haut débit est supérieure en France par rapport à celle des États-Unis. Le metaverse de Facebook est également un besoin qui n’est pas validé par les utilisateurs (mais avant tout un besoin des entreprises).

L’impérialisme numérique va plus loin puisqu’il produit une désappropriation des futurs en déterminant par lui-même les futurs possibles, rendant alors difficile d’ancrer le numérique dans les valeurs et les besoins européens. Par exemple, en France, l’enjeu du cloud souverain débouche systématiquement sur l’idée de créer des GAFAM à la française, sans même questionner la pertinence en France et en Europe du modèle des GAFAM américain (et alors que les États-Unis eux-mêmes questionnent aujourd’hui le modèle des GAFAM). N’est-ce pas en effet un combat perdu d’avance que de créer des copies européennes (en open source) des GAFAM et autres applis américaines ? Mais pour sortir de la dépendance épistémologique européenne, il est impératif de se détacher des discours de l’urgence, et de ramener la marge au centre, en pensant les usages numériques davantage en termes de convivialité. L’Europe y parvient par le droit, en jouant de sa puissance de marché et de l’affirmation de l’extraterritorialité du droit européen (exemple du Règlement général sur la protection des données et ses effets sur les politiques de cookies).

De même, l’Europe est capable de porter des projets comme GAIX-X relatif au développement d’une infrastructure de données en nuage (même si là encore des GAFAM américains et des BATX chinois font partie du projet), le European Blockchain Services Infrastructure (EBSI) centré sur la souveraineté des utilisateurs, l’identité numérique européenne (avec une réforme du règlement eIDAS) et le Self-sovereign identity (identité numérique contrôlée par les utilisateurs et validée par des certificateurs européens et qui permet de se passer des instruments d’authentification Google).

En adoptant une approche de l’innovation numérique ancrée dans les valeurs européennes, l’Europe n’est pas désarmée (elle n’est pas en situation d’ex-colonie) grâce au droit européen et ses moyens technologiques, à la condition de rompre avec l’injonction de l’urgence et de mettre la marge au centre.

Julien Nocetti juge hypothétique une troisième voie européenne en matière de numérique, entre deux écosystèmes prédateurs (la vision libertarienne américaine et la vision techno-autoritaire chinoise). Certes, le positionnement européen est très marqué par les valeurs européennes, mais est-ce suffisant pour constituer une Europe puissance dans le domaine du numérique ? D’autre part, sur les termes employés, il est également question de protection de la démocratie (Thierry Breton parle de « souveraineté informationnelle » de l’Europe). En relations internationales, il faut faire attention à ne pas emprunter des termes qui ne sont pas les nôtres, mais américains ou chinois. Sur le « Brussels effect » : l’Europe possède en effet une puissance normative, mais avec une limite car le positionnement normatif européen joue un peu le rôle d’arbitre. Or les arbitres en Relations internationales ne gagnent pas. Aux Etats-Unis, on observe une décorrélation entre les actions de régulation interne et le soutien étatique à l’international accordé aux GAFAM.

Brunessen Bertrand revient sur l’enjeu de la blockchain qui sont des anti-plateforme (du fait de la désintermédiation propre à la blockchain). Comment concilier l’industrie du minage (blockchain) et la transition énergétique ? Comment appliquer le RGPD à la blockchain ?

Pierre Noro juge que le positionnement sur les valeurs n’est pas suffisant, mais nécessaire, au risque de courir derrière les États-Unis pris comme référentiel qui n’est pas le nôtre. Ainsi, les tentatives d’entreprises européennes dans le cloud souverain, qui cherchaient à copier les exemples américains, ont fait long feu. En ancrant le numérique européen dans les valeurs et les besoins européens, l’Europe pourrait se retrouver en « avance de phase » dans l’innovation technologique et industrielle numérique. Le problème des Européens est en effet que l’Europe « court mal » dans cette course, alors qu’elle est confrontée à des asymétries budgétaires majeures avec les Américains et les Chinois. Il faut alors chercher des raccourcis, des disruptions, pour être en avance de phase, qui pourraient être trouvés dans l’éthique (avec l’importance commerciale croissante des sujets éthiques dans le numérique), par la création de navigateurs ou d’applications qui respectent des valeurs et/ou qui répondent à l’exigence de sobriété énergétique. D’autre part, pour pallier la faiblesse européenne en matière de capital-risque, l’Europe se doit d’être très offensive en matière d’investissements publics. Or, en France notamment, la doctrine de la commande publique, qui est un levier de soutien financier majeur, est très déficiente, avec des marchés publics destinés à être remportés par des entreprises non-françaises ou non-européennes (label « Cloud de Confiance »). Enfin, la « décolonisation » numérique de l’Europe implique des investissements massifs en infrastructures (comme l’équipement en centres de données).

Maxime Lefebvre, diplomate, souligne que si l’Europe a fait beaucoup de choses en termes de régulation, la question demeure de savoir comment développer des acteurs du numériques européens qui parviennent à la taille critique. Visiblement l’Europe n’arrive pas à rattraper les GAFAM américain. Il faudrait à ce sujet étendre nos discussions avec les entreprises françaises et européennes.

Brunessen Bertrand répond à la question de Jérôme Creel, directeur du département des études de l’OFCE, sur la neutralité de la Commission européenne vis-à-vis des politiques industrielles numériques nationales. La Commission européenne n’est pas vraiment neutre, mais procède par encouragement. Elle déploie un faisceau d’instruments, fait de droit souple, de « bacs à sable » règlementaire et de coordination, en mobilisant ses compétences d’appui pour progressivement européaniser les compétences nationales en matière de numérique. D’autre part, en matière de R&D, l’Europe propose beaucoup de canaux de financement, comme des partenariats public-privé et des entreprises communes dans le quantique ou les semi-conducteurs.

Adeline Wintzer, doctorante au Cevipof, demande s’il existe des outils d’évaluation du niveau des investissements en Europe. Sont-ils suffisants ? Quid d’un protectionnisme européen dans le domaine numérique ? D’autre part, les objectifs commerciaux européens dans le numérique ne semblent pas aussi clairs que ceux des États-Unis et de la Chine.

Sarah Guillou, économiste à l’OFCE, remarque que pour le numérique, et alors que l’objectif de compétitivité est traditionnellement premier dans l’UE, la dimension de souveraineté tend à prendre le pas sur celle de la compétitivité, avec une volonté affichée de financer les investissements nécessaires dans le numériques et des incitations à la digitalisation des États (avec un arbitrage entre se digitaliser rapidement en recourant à des prestataires hors UE ou prendre le temps de construire une politique industrielle numérique européenne).

Julien Nocetti estime que l’emboîtement des ambitions et des projets européens dans le numérique se reflète dans le cadre financier pluriannuel (CFP) avec un changement d’échelle, avec le programme Horizon 2020 qui cible le numérique, le programme Europe numérique, le mécanisme d’interconnexion en Europe et dans le domaine spatial. Il reste que l’Europe est confrontée à une asymétrie majeure sur le plan de l’effort budgétaire consacré à la R&D vis-à-vis des GAFAM (le programme Horizon 2020 équivaut à 2% des investissements R&D de Amazon). Le financement de l’innovation est la grande faiblesse de l’Europe qui dépend très fortement de capital-risqueurs américains ou israéliens, ce qui pénalise l’essor de start-up européennes capables de passer à l’échelle tout en restant européennes. Enfin, il y a un lien entre décolonisation et captation des cerveaux européens, avec la multiplication des laboratoires de recherche américains et chinois en Europe dans des domaines sensibles comme l’IA, le quantique ou les algorithmes. La dimension des ressources humaines est sous-estimée. Elle emporte trois enjeux : 1/ l’enjeu de formation (être en mesure de former nos propres chercheurs et experts), 2/ l’enjeu de retenir ces compétences et 3/ l’enjeu de capter des cerveaux non-européens.

Xavier Ragot, président de l’OFCE, remarque que la question du numérique a fait voler en éclat la pensée de l’intervention publique, avec la difficulté persistante de l’Europe pour la production d’acteurs numériques. Le numérique est un bien d’expérience : le consommateur ne connaît pas la valeur du produit sans l’avoir au préalable essayé, ce qui limite la capacité de la puissance publique d’influer sur les usages des consommateurs (sauf en santé publique). Pour l’Europe, il semble difficile d’aller au-delà d’une articulation fine entre politique de la concurrence et politique d’environnement du financement.

Julien Nocetti juge que l’Europe doit accepter de « perdre du temps », malgré un contexte d’accélération du temps. Il remarque d’autre part que le débat sur le numérique en Allemagne a du mal à comprendre l’approche par la souveraineté : il est davantage question du prisme de l’auto-détermination des individus.


[1] Voir par exemple la tribune du député (Modem) Philippe Latombe, « Face aux agressions des Gafam, l’écosystème tech doit s’unir », La Tribune, 6 avril 2022. Le député y parle de « guerre d’occupation numérique » des GAFAM.

[2] Article 4 § 3 du TFUE : « Dans les domaines de la recherche, du développement technologique et de l’espace, l’Union dispose d’une compétence pour mener des actions, notamment pour définir et mettre en œuvre des programmes, sans que l’exercice de cette compétence ne puisse avoir pour effet d’empêcher les États membres d’exercer la leur. » L’UE peut également mobiliser ses compétences en matière de politique industrielle (art. 173 TFUE), de politique de la concurrence (art. 101 et 109 TFUE), de politique commerciale (art. 206 et 207 TFUE), de réseaux transeuropéens (art. 170 et 172 TFUE), de recherche et développement technologique et d’espace (art. 179 et 190 TFUE), de politique énergétique (art. 194 TFUE), de rapprochement des législations dans le but d’améliorer l’établissement et le fonctionnement du marché intérieur (art. 114 TFUE), de libre circulation des marchandises (art. 26 et 28 à 37 TFUE), de libre circulation des personnes, des services et des capitaux (art. 45 et 66 TFUE), d’éducation, de formation professionnelle, de jeunesse et de sport (art. 165 et 166 TFUE), et de culture (art. 167 TFUE).

[3] Adoptée le 21 mars 2022, la Boussole stratégique dote l’UE d’un plan d’action pour renforcer la politique de sécurité et de défense de l’UE d’ici à 2030.