Augmenter les taxes sur le tabac pour financer les retraites : choix économique ou provocation politique ?

par Vincent Touzé

Hasard de calendrier ! Alors que la journée mondiale sans tabac a eu lieu le 31 mai 2023, la Commission des affaires sociales de l’Assemblée nationale a examiné le même jour une proposition de loi portée par le groupe parlementaire LIOT visant :

  • à abroger la réforme des retraites à 64 ans (article 1) ;
  • à organiser une conférence de financement avant le 31 décembre 2023 (article 2) ;
  • à compenser les pertes financière « à due concurrence par la majoration de l’accise sur les tabacs » (article 3).

Après un vote au sein de la Commission des affaires sociales qui a conduit à la suppression de l’article premier, le texte se trouve donc vidé de sa principale substance. Ce texte, dans sa version issue des travaux de la Commission, sera débattu dans l’hémicycle le 8 juin prochain. Les députés pourront ajouter des amendements, y compris la réintroduction de l’article 1. Reste à savoir si ces amendements auront l’aval de la Présidente de l’Assemblée nationale qui a la possibilité de mobiliser l’article 40 de la Constitution pour juger de leur recevabilité. En effet, cet article prévoit que les propositions de lois sont irrecevables dès lors que « leur adoption aurait pour conséquence soit une diminution des ressources publiques soit la création ou l’aggravation d’une charge publique ».



L’équilibre financier du système de retraite repose en général sur le recours à trois instruments (Touzé, 2023) :

  1. Les paramètres de calcul de la pension moyenne : le législateur peut agir sur les pensions futures en modifiant les règles de calcul afin de réduire les droits ou sur les pensions déjà liquidées en sous-indexant par rapport à l’évolution de l’inflation ;
  2. La cotisation moyenne par travailleur : le législateur peut également augmenter le taux de cotisation sur les revenus du travail de façon à apporter de nouvelles ressources aux régimes de retraite ;
  3. La durée moyenne d’activité : le législateur peut encourager par un système de majoration ou de minoration de la pension ou obliger via une augmentation de l’âge minimum, le recul de l’âge de liquidation de la retraite.

Sans entrer dans les détails (Gannon, Le Garrec et Touzé, 2018), tous ces leviers ont été utilisés avec différentes intensités dans les réformes passées. Toutefois, il existe une quatrième voie possible qui est celle de l’affectation de ressources du budget général pour financer une partie des pensions versées. Cette voie de la solidarité nationale via le budget général peut trouver un fondement économique tout particulier concernant les pensions non contributives.

C’est un peu cette quatrième voie que le groupe de députés du LIOT souhaite employer dans le cadre d’une proposition de loi déposée le 25 avril 2023 et qui a pour objet principal d’abroger la dernière réforme des retraites promulguée le 14 avril 2023 à l’issue d’un recours au 49.3[1] et une validation partielle du Conseil constitutionnel.

Une lecture économique simplifiée de la proposition parlementaire de l’article 3 est que la fiscalité sur le tabac serait augmentée de façon à combler les besoins de financement du système des retraites dès lors que la conférence sociale résultant de l’article 2 échouerait et ne permettrait pas de déboucher sur l’adoption d’une loi de financement alternative à celle du passage à la retraite à 64 ans. Une lecture politique de l’article 3 est que ce dernier a été ajouté en raison de l’article 40 et que le choix de la taxation du tabac de la proposition du groupe LIOT reprend une proposition du groupe « Renaissance » concernant des « mesures pour bâtir la société du bien vieillir en France ».

Le fondement économique de la fiscalité sur le tabac repose sur le concept de taxation « comportementale » des produits à risque pour la santé (Dufernez et Lapègue, 2013). La fiscalité sur le tabac est donc une taxe sur les addictions et s’assigne de facto un objectif de santé publique visant à décourager le tabagisme (Kopp, 2006). À défaut de prohiber le tabac, un prix élevé peut réduire la consommation (Besson, 2006) et la ramener à un niveau socialement acceptable tout en procurant des ressources fiscales supplémentaires pour financer le coût social notamment en soins de santé lié principalement au risque accru de mortalité et de morbidité.

La fiscalité sur le tabac comprend trois composantes : une accise sur les produits du tabac (55% du prix au détail + 0,68€ par cigarette) ; une taxe sur la valeur ajoutée (TVA) dite « en dedans » (environ 16,67% du prix de vente) et une remise brute versée aux débitants de tabac (rémunération d’environ 10% du prix de vente). Le prix hors taxes représente environ 4% du prix au détail.

Bien que louable du point de vue de la santé publique, la solution alternative de financer les retraites par une hausse de la fiscalité sur le tabac se heurte à plusieurs limites :

  1. À trop vouloir taxer, on peut voir la recette fiscale se réduire traduisant le fait que l’assiette fiscale diminuerait à un rythme plus rapide que le taux de prélèvement. Des taux de taxation trop élevés sur le tabac peuvent également encourager la fraude et la contrebande organisée (Dufernez et Lapègue, 2013). L’État perdrait alors des recettes fiscales tout en renonçant à sa politique de santé publique de baisse de la consommation ;
  2. L’espérance de vie des fumeurs est plus courte, ce qui signifie qu’ils bénéficient en moyenne moins longtemps de leur pension. Il en découle qu’ils coûtent moins chers aux régimes de retraite[2] ;
  3. La fiscalité du tabac est dégressive : elle frappe en proportion plus lourdement les pauvres (Ruiz et Trannoy, 2008). Les hausses devraient donc inclure également des mesures financières de compensation en faveur des bas revenus ;
  4. La masse de besoins financiers du système de retraite avant la dernière réforme est estimée à environ 15 milliards d’ici 2032, soit un montant proche des recettes fiscales actuelles sur le tabac. Cela nécessiterait donc de doubler les recettes fiscales en moins de dix ans. Est-ce réaliste ? En supposant une élasticité de la demande au prix comprise entre -0,3 et -0,5 (Dufernez et Lapègue, 2014), ce doublement de la masse de recettes impliquerait de multiplier le taux de prélèvement[3] d’un facteur compris entre 2,7 (quasi triplement du prix du tabac) et 4 (quadruplement). De telles hausses interrogent sur la capacité des douanes à contrôler les tentations de consommation des produits de contrebande dont la qualité n’est pas contrôlable, ce qui peut présenter un risque supplémentaire de santé  à acheter au-delà des frontières nationales.

En conclusion, l’article 3 qui prévoit le recours à une fiscalisation accrue du tabac pour financer les retraites, à défaut d’autres leviers, semble sur le plan économique pour le moins hasardeux quant à la capacité réelle à prélever plus d’impôt en raison d’un risque très élevé de fraude et de baisse des volumes consommés. Les taxes sur le tabac n’ont, en effet, pas un objectif de rendement fiscal mais de santé publique. L’affectation de ces recettes, par nature, limitées devrait être réservée au financement des coûts indirects du tabagisme sur la santé dès lors qu’ils sont supportés par la collectivité ainsi qu’à des politiques publiques de prévention, de sensibilisation et de sevrage. Le financement des retraites par la fiscalité de la consommation du tabac n’apparaît donc pas comme une solution économique crédible. Par voie de conséquence, cet article relève plutôt de la provocation politique pour réintroduire un débat sociétal élargi (« conférence ») sur le financement des retraites (article 2).


[1] La loi a été promulguée après le passage au Sénat. Techniquement le 49.3 a été engagé sur un texte issu d’une Commission mixte paritaire. C’est ce texte qui a été approuvé par le Sénat

[2] Un argument opposable à celui-ci est un coût global d’un fumeur pour la société très élevé au regard du bénéfice pour le régime de retraite. Kopp (2019) donne une évaluation exhaustive du coût social net et l’estime, pour l’année 2010, à environ 9 000 euros par fumeur.

[3] En notant t le taux de taxe, P le prix du tabac et Q la quantité consommée, la recette fiscale est égale à t x P x Q. On suppose également que l’élasticité de la demande Q est égale à e. Partant d’un niveau initial t0 de recettes fiscales : on a t0 x P x Qref x ((1+t0x P)-eQref est le niveau de la demande pour un prix au détail unitaire. Sachant que t0/1+t0 est proche de 1 (96% actuellement), on peut approximer 1+t0 par t0. Il en découle une recette fiscale égale à t0 x P x Qref x (t0 x P)-e. Un doublement des recettes fiscales nécessite un nouveau taux de prélèvement t1 soit tel que (t1/t0)1-e = 2. Si e = 0,3, le taux de prélèvement augmente d’un facteur égal à 21/0,7 »2,7 (hausse de 170% des prix). Si e = 0,5, le taux de prélèvement augmente d’un facteur égal à 21/0,5 = 4 (quadruplement et donc hausse de 300% des prix).




Logement : une crise pas si neuve que ça …

Légende de l’image Bing Image Creator

par Pierre Madec

Les annonces à venir du Conseil National de la Refondation (CNR) sur le logement, initialement prévues le 9 mai dernier et reprogrammées au 5 juin prochain, devraient, dans un contexte de crise de la construction neuve remettre la question du logement dans l’agenda public et politique. Si d’importantes turbulences traversent le secteur depuis le milieu de l’année 2022 (crise du crédit, construction en berne, renchérissement du prix des matières premières, foncier cher, …), la (les) crise(s) du logement n’est (ne sont) pas nouvelle(s) …



La crise du logement cher qui creuse les inégalités

Entre 1996 et 2022, selon l’Insee, le prix des appartements a été multiplié par 3,3 en France métropolitaine. Sur la même période, les prix à la consommation et le pouvoir d’achat des ménages ont crû de 50%. Ces résultats nationaux cachent bien évidemment des disparités territoriales importantes. Au cours des 25 dernières années, les prix immobiliers ont été multipliés par 4,8 dans l’agglomération lyonnaise, par 4,3 à Paris, par 3,4 dans l’agglomération marseillaise ou encore par 2,9 dans les agglomérations de moins de 10 000 habitants (Insee, 2022).

Une autre façon d’observer cette déconnexion entre revenu des ménages et prix immobilier est d’observer, à partir des comptes nationaux, la valeur du patrimoine immobilier des ménages français en années de revenu disponible. Entre 1980 et 2000, le patrimoine immobilier représentait en moyenne 2,5 années de revenu disponible brut. En 2020, celui-ci représentait près de 5,5 années de revenu disponible. Il est important de noter que la quasi-totalité des pays de l’OCDE a également connu une évolution des prix immobiliers plus dynamique que celles de leur revenu et de leur prix à la consommation.

Cet emballement des prix immobiliers a été largement soutenu par l’assouplissement des conditions de financement. Au début des années 2000, les taux d’intérêt des nouveaux crédits à l’habitat oscillaient entre 4% et 5%[1]. Avant la crise sanitaire de 2020, ces derniers s’établissaient sous la barre des 1%. Associé à l’allongement des durées d’emprunt, entamé au début des années 2000[2], cet assouplissement global des conditions de crédit a permis aux ménages ayant accès au crédit d’augmenter leur capacité d’emprunt et de s’endetter davantage.

Néanmoins, cette solvabilisation des ménages n’a pas profité à tous. Selon des données d’enquêtes EU_SILC, publiées par Eurostat, alors que 40 % des ménages ayant des revenus inférieurs à 60 % du « revenu équivalent médian » étaient propriétaires de leur logement en 2005, ils n’étaient que 30 % en 2021. Dans le même temps, le taux de propriétaires observé pour le reste de la population a crû de 5 points passant de 65 % à 70 %.

La mobilité résidentielle en berne

Cette accession à la propriété entravée des ménages les plus pauvres a eu des conséquences importantes sur le fonctionnement du marché du logement et a participé à la baisse significative de la mobilité résidentielle. Quel que soit le statut d’occupation ou l’âge analysé, la part des ménages emménageant dans un nouveau logement n’a cessé de baisser depuis le début des années 2000 (Driant et Madec, 2019). Or, la mobilité résidentielle est le principal pourvoyeur de logements sur le marché immobilier chaque année. Au total, ce sont près de deux millions de ménages qui changent de logement chaque année, pour une moyenne de 330 000 logements neufs mis en chantier ces dernières années.

Il est à noter que les prix immobiliers élevés ne sont pas les seuls freins à la mobilité résidentielle. Ainsi, sur le marché de l’accession, les droits de mutation à titre onéreux pèsent sur les mutations (Bérard et Trannoy, 2018). Dans le parc locatif privé, les sauts importants du loyer au moment de la relocation participent également à l’érosion de la mobilité (Le Bayon, Madec, Rifflart, 2013). Enfin, dans le parc social où la baisse du taux de rotation est encore plus importante, la réduction importante des sorties du parc pour aller vers l’accession à la propriété, associée à une demande croissante du fait notamment de la précarisation des locataires du parc privé, engendre un besoin en production sociale de logements de plus en plus fort.

Le « choc d’offre »

Dans ce contexte, la question globale de la production neuve, qu’elle soit sociale ou non, se pose bien évidemment depuis longtemps à la fois pour favoriser la fluidité des marchés immobiliers mais surtout pour faire baisser les prix. D’ailleurs, bien avant la crise immobilière que nous traversons aujourd’hui, le « choc d’offre » a semblé constituer l’Alpha et l’Omega des objectifs de la politique publique menée au niveau national. De la « France de propriétaires » vantée au cours des années 2000 (pour ne pas remonter plus loin encore dans le temps) et soutenue par des dispositifs d’aide à l’accession dans le neuf comme le Prêt à taux zéro, à la loi Elan de 2018 qui promettait de « construire plus, mieux et moins cher » (Madec, 2018) en passant par les nombreux dispositifs fiscaux d’aides à l’investissement locatif (Madec, 2022), la volonté de « construire plus » a eu le mérite d’être largement transpartisane. Dans le cadre du Conseil National de la Refondation sur le logement[3], l’un des trois groupes de travail avait même pour thématique « Réconcilier les Français avec l’acte de construire ».

Cette idée d’une France « fâchée » avec l’acte de construire est quelque peu battue en brèche par la simple analyse des données historiques. La France est ainsi l’un des pays de l’OCDE où le ratio logements / habitants est le plus élevé (590/1000 hab.). Il est également le pays où ce ratio a le plus augmenté au cours de la dernière décennie (2% par an en moyenne). En outre, la littérature économique tend à montrer que l’impact de la production neuve sur les prix serait en France relativement faible par rapport à nos voisins (Friggit, 2021) et une étude récente fait apparaître que ce sont les communes ayant le plus construit qui ont connu les prix immobiliers les plus dynamiques au cours de la dernière décennie (Coulondre et Lasserre-Bigorry, 2022). Cela ne doit évidemment pas être interprété comme un plaidoyer en faveur de la non-production de logements mais permet de relativiser l’idée selon laquelle la production de logements neufs serait la seule et unique réponse à apporter aux crises du logement qui traversent la France.

La solution vient-elle du parc existant ?

Certains observateurs avertis pointent du doigt, à raison, le rôle à jouer du parc ancien. En effet, un nombre de plus en plus important de logements « échappent » au marché des résidences principales. Entre 2012 et 2022, le nombre de résidences principales s’est accru de 2,5 millions d’unités soit une hausse de 9%. Sur la même période, le nombre de logements vacants a augmenté de 20% (+550 000 logements) et le nombre de résidences secondaires de 15% (+495 000 logements). En 2022, sur 30,7 millions de logements en France (hors Mayotte), 3,1 millions sont comptabilisés comme vacants (soit 8,3 % du parc) et 3,7 millions seraient des résidences secondaires (9,8 %). Or ce type de logements (vacants et résidences secondaires) a contribué à un tiers de la hausse du nombre de logements au cours des 10 dernières années.

A l’aune de ces résultats, la mobilisation des logements vacants est souvent présentée comme LA solution à la crise d’offre de logements, parfois même en substitut d’une production neuve abondante… Rappelons que les taux de vacance les plus importants sont observés en général sur les territoires les moins attractifs (Observatoire des territoires). Dans les territoires sous tensions, la vacance observée est le plus souvent le fait d’une mobilité résidentielle plus importante (vacance résiduelle et de courte durée). Si le besoin en rénovation des logements est massif dans certains territoires afin de remettre des logements dégradés sur le marché (vacance structurelle), cela ne pourra répondre que partiellement au problème d’accès au logement des ménages les plus modestes en zones tendues. La mobilisation de la vacance spéculative ne peut être qu’encourager mais encore faut il être capable de la mesurer…

La problématique des résidences secondaires est, elle, un peu différente. Non seulement leur nombre a fortement crû mais cette augmentation a été d’autant plus importante dans les territoires soumis à des prix immobiliers élevés. De nombreuses illustrations de ces phénomènes existent au Pays Basque, en Bretagne ou encore à proximité du littoral. Ces territoires ont connu une production de logements neufs importante au cours des dernières années mais la pression exercée par les résidences secondaires et les meublés touristiques est encore plus forte. L’Ile de France n’est d’ailleurs pas en reste. Une étude récente de l’institut Paris Habitat notait ainsi selon les données du recensement qu’entre 2011 et 2017, alors que le nombre total de logements a continué à augmenter dans la capitale (+26 700 logements sur la période), le nombre de résidences principales a connu de son côté une chute brusque et marquée (-23 900, soit une baisse de 2 %) au profit donc des logements hors-RP (logements vacants, occasionnels et résidences secondaires : +50 600) …

Une conjoncture (très) défavorable

La crise actuelle prend sa source dans ces dynamiques passées. Alors même que les prix immobiliers se situaient à leur plus haut niveau, le durcissement brutal des conditions de crédit depuis plus d’un an a largement entamé les capacités d’emprunt des ménages français dont le pouvoir d’achat était déjà contraint par le retour d’une inflation importante. Entre mars 2022 et mars 2023, selon les données de la Banque de France, les taux d’intérêt annuels des nouveaux crédits à l’habitat ont doublé passant de 1,15% à plus de 2,5%. Dans le même temps, le flux des nouveaux crédits à l’habitat se réduisait de moitié. Le renchérissement soudain des coûts de construction, lié en partie au conflit russo-ukrainien, associé à un prix du foncier historiquement élevé, a largement enrayé la capacité d’achat des ménages.

Le fragile équilibre des marchés du logement qui tenait jusqu’alors est en train de rompre. Dans le parc social, du fait notamment des économies budgétaires demandées au secteur (Madec, 2021) depuis 2017, la capacité de production pour répondre à la demande, est plus que réduite. Dans le parc locatif privé, les taux de rendement modestes (pour les investisseurs entrants) en zone tendue, les réformes fiscales incitant plutôt aux placements financiers (PFU, IFI, …) et la baisse de la mobilité résidentielle devraient avoir pour conséquence une poursuite de l’érosion du nombre de logements disponibles. Enfin, du coté de l’accession à la propriété, dans le neuf ou dans l’ancien, les conditions de crédit moins favorables et les prix qui tardent à s’ajuster par un « effet de cliquet » bien documenté dans l’analyse des cycles immobiliers (Renard, 2003) rendent la solution inextricable à court terme. Dès lors, la question des réponses à apporter se posent.

Quelle(s) sortie(s) de crise(s) ?

Nous l’avons vu, il n’existe pas « une crise du logement ». Tant dans leurs temporalités (conjoncturelle/structurelle) que dans leurs causes, les crises sont multiples. De fait, les réponses doivent l’être aussi. Les acteurs qui se sont réunis dans le cadre du CNR ont ces derniers mois mis sur la table de nombreuses propositions : création d’un statut du bailleur privé pour inciter les ménages à investir sur le marché locatif, réforme fiscale d’ampleur pour lever les freins aux mutations que le système actuel entretient en partie (Madec, Timbeau, 2018), aides nouvelles à la production de logement social, investissement public dans le logement au travers de dispositif du type OFS/BRS, …

Chacune répond, plus ou moins efficacement, aux problématiques (non exhaustives) décrites précédemment : produire du logement neuf abordable dans les zones tendues et y libérer massivement du foncier sous contrainte de respect des contraintes environnementales[4], inciter les ménages (et les investisseurs institutionnels) à (ré)investir dans le logement, soutenir le parc social et le parcours résidentiel des ménages, mieux solvabiliser les ménages dans leurs dépenses en logement, rénover massivement les logements anciens[5], régulation de l’implantation des logements hors résidence principale… Bien évidemment, il faut en premier lieu que les responsables politiques (locaux et nationaux) se réapproprient et réinvestissent la question du logement autrement que par la seule voie des économies budgétaires à réaliser.


[1] Au début des années 2000, l’inflation s’établissait entre 1,5% et 2%.

[2] Entre 2005 et 2022, la durée moyenne des crédits à l’habitat a augmenté de 60 mois passant de près de 17 ans à près de 22 ans.

[3] Le 28 novembre 2022, tous les acteurs du logement se sont réunis pour « établir un constat clair, fixer des objectifs et proposer des pistes de travail ». Des groupes de travail réunissant professionnels de l’immobilier, universitaires, financeurs, représentants des collectivités locales et des bailleurs ont planché sur des (nombreuses) propositions. Le gouvernement doit annoncer celles qui ont été retenues …

[4] Le plan Biodiversité de 2018 demande aux territoires, communes, départements, régions de réduire de 50 % le rythme d’artificialisation et de la consommation des espaces naturels, agricoles et forestiers d’ici 2030 par rapport à la consommation mesurée entre 2011 et 2020. L’objectif de Zéro Artificialisation Nette (ZAN) est lui poursuivi à l’horizon 2050.

[5] Depuis début 2023, la loi Climat et Résilience interdit la mise en location des logements classés G, soit près de 140 000 logements. A partir de 2028, cette interdiction s’élargit aux logements classés F. Sans mesures de soutien fortes à l’adresse des bailleurs (sociaux et privés), un nombre important de logements pourraient être soustraits du marché locatif.




Solidarité sous condition ?

(Illustration par Dall-E – Bing Open AI)

par Guillaume Allègre

La question de la conditionnalité de l’assistance aux pauvres valides est très ancienne. Elle était récurrente dès les lois anglaises dites « Poor Laws » (lois sur les indigents) en place entre le XVIe et le XXe siècle. La solution qui s’est imposée à partir des années 1830 est celle des Workhouses (maisons de travail) et de la règle dite de « less eligibility » : pour recevoir un revenu, les indigents en capacité doivent obligatoirement travailler dans des maisons de travail. Le travail consistait typiquement à démonter de vieilles cordes ou à broyer des os pour faire de l’engrais. Les conditions de vie dans ces workhouses ne pouvaient être meilleures, selon la loi, que celles prévalant pour les travailleurs en dehors de ces maisons afin d’inciter à prendre un emploi en dehors de celles-ci. Avec le recul, les conséquences sont faciles à deviner, d’autant plus que la fin du XIXe siècle est une époque de grande paupérisation des travailleurs dont le niveau de vie est souvent à peine au-dessus du niveau de subsistance. Dans ces conditions, maintenir coûte que coûte un écart entre assistance et travail marchand, en abaissant les conditions de vie des assistés, et non en augmentant celles des travailleurs, mène à des conditions indignes pour les « assistés ». Outre les conditions indignes pour les « travailleurs assistés », ce système pose aussi un problème d’efficacité dans le sens où le labeur peut faire concurrence au travail marchand.



Ce système de travail contre assistance a été abandonné dans les pays développés – en Angleterre, les workhouses ont été fermées en 1930 – pour des systèmes de revenus minima garantis, soit des allocations en espèces à destination des personnes valides d’âge actif. En France, le RMI fut instauré en 1989, remplacé par le RSA en juin 2009. Tous les pays de l’Union européenne ont aujourd’hui un revenu minimum garanti qui prend la forme d’une allocation dégressive selon les revenus du foyer, inférieure au seuil de pauvreté fixé à 60% du niveau de vie médian, et conditionnée à des efforts d’insertion sociale et professionnelle (de l’allocataire et selon les pays possiblement de son ou sa conjointe). Ces principes sont ainsi aujourd’hui adoptés de façon quasi-universelle dans les pays suffisamment riches. Cependant, le niveau du revenu varie fortement selon les pays et les compositions familiales (entre 15 à 60% du niveau de vie médian – OCDE), et les conditionnalités sont également hétérogènes entre pays (Commission européenne). Depuis une vingtaine d’années, la tendance va dans le sens d’un durcissement de la conditionnalité (récemment, Universal Credit au Royaume-Uni, RSA en France…). Ce durcissement peut concerner l’obligation de participer à des rendez-vous avec un conseiller, des formations ou des ateliers, de remplir des agendas d’activité, d’aller à des entretiens d’embauche, d’accepter des offres d’emploi jugées convenables.  Ces obligations sont assorties de sanctions plus ou moins importantes.  

Suivant cette tendance, le gouvernement entend proposer une loi traduisant la volonté d’Emmanuel Macron, formulée durant la campagne présidentielle et rappelée depuis, d’une obligation pour les allocataires du RSA « de consacrer 15 à 20 heures par semaine pour une activité permettant d’aller vers l’insertion professionnelle, soit de formation en insertion, soit d’emploi et d’être mieux accompagné ». Selon le Ministre du Travail et la Première ministre, l’obligation en termes de durée d’activité ne serait pas inclue dans la loi mais dans les contrats d’engagement réciproque signés par les allocataires. Dans la lignée du rapport Guilluy, les deux ministres insistent sur la création de nouvelles sanctions graduelles et ainsi sur l’importance de ces sanctions pour faire respecter les devoirs des allocataires.

Il existe plusieurs justifications possibles à la conditionnalité et à la logique de sanctions, et il est important de ne pas les confondre.

Une première justification souligne que la conditionnalité bénéficie aux assistés eux-mêmes car elle augmente leur probabilité de trouver un emploi. C’est une justification paternaliste dans la mesure où il s’agit de faire le bien des assistés contre eux-mêmes. Autrement, pourquoi les obliger à des activités d’insertion s’ils cherchent leur propre bien, c’est-à-dire s’ils sont rationnels ? Une telle justification implique un défaut de rationalité qui peut être lié à la paresse, à une courte-vue ou à un manque d’information… Elle s’appuie de plus sur un principe d’efficacité : la situation des plus défavorisés est censée s’améliorer, ce qui est empiriquement testable, par exemple en regardant a minima si l’emploi des personnes concernées est plus élevé à moyen ou long-terme.

Une seconde justification ne prend pas le point de vue des « assistés » mais celui des non-assistés censés financer le dispositif d’assistance, et notamment celui des travailleurs pauvres. Selon cette justification, les assistés doivent contribuer sous forme de contrepartie au versement des aides sociales. C’est un principe de justice : il s’agit de justice contributive selon la règle aristotélicienne « à chacun son dû ». Le montant d’heures obligatoires d’activité d’insertion proposé par le Président (15 à 20h hebdomadaires) tend à confirmer cette impression de justice contributive puisque le montant du RSA pour une personne seule – 607 euros – correspond environ à un demi-Smic net à temps-plein – 1 383 euros. Mais l’histoire des workhouses rappelée en introduction souligne la contradiction à demander une contribution sous forme de travail à ceux à qui on verse une allocation parce qu’ils sont dans l’incapacité de… contribuer (selon la Constitution, « tout être humain qui, en raison de son âge, de son état physique ou mental, de la situation économique, se trouve dans l’incapacité de travailler a le droit d’obtenir de la collectivité des moyens convenables d’existence ». Le risque est de demander aux assistés de casser des cailloux au bord d’une route afin de rassurer le contribuable – et/ou les travailleurs pauvres – quant à la pénibilité effective des conditions de vie des « assistés ».

Il existe une troisième justification à la conditionnalité des minima sociaux. Elle s’appuie sur l’application d’un principe de réciprocité. Pour faire très court[1], un revenu minimum garanti est justifié parce que, au sein d’une communauté politique, « on fait société ». Le revenu d’assistance ne peut donc financer des formes de séparatisme social ; selon les termes de Rawls, la société n’a pas à nourrir les surfeurs (voir notre discussion ici). La société est ainsi légitime à demander une réciprocité aux « assistés », sous la forme d’une obligation d’efforts d’insertion sociale et professionnelle. Cette demande de réciprocité est dans l’intérêt des bénéficiaires de minima sociaux dans la mesure où elle est la fondation d’un consentement social à un minimum social généreux.

Concernant le renforcement de la conditionnalité du RSA, le Président et le gouvernement alternent successivement entre ces justifications et parfois les confondent. Il n’est pas anodin que le Président commence son interview télévisée du 22 mars à ce sujet par l’argument suivant : « Beaucoup de travailleurs disent : « vous nous demandez des efforts (mais) il y a des gens qui ne travaillent jamais (et qui…) auront le minimum ». Le Président prend donc explicitement comme point de départ le point de vue des travailleurs, présumés en proie à une forme de lassitude de la solidarité, voire de ressentiment. Ce point de vue est une impasse car les efforts ou la contribution demandés aux allocataires ne sera jamais suffisante du point de vue des non-allocataires.

L’obligation est-elle efficace ?

Le discours défendant le renforcement de la conditionnalité confond également l’accompagnement et l’obligation d’accompagnement. Le rapport Guilluy (2023) peut ainsi souligner « qu’il est grand temps d’investir significativement dans l’accompagnement de celles et ceux qui en ont besoin » tout en insistant sur les sanctions des allocataires qui ne satisferaient pas aux exigences de l’accompagnement (le terme sanction est mentionné 85 fois dans le rapport). Il y a un décalage inquiétant entre cette fixation sur les sanctions des allocataires et le constat fait par la Cour des comptes, et rappelé dans le rapport Guilluy, de manquements de la part des pouvoirs publics et « d’un défaut de substance » dans les parcours d’accompagnement : « La durée moyenne des contrats (d’engagement réciproque) est inférieure à une année, le nombre d’actions est très faible (souvent moins de deux actions par contrat), les actions proposées sont peu engageantes et ne présentent que rarement les caractéristiques d’une démarche susceptible d’aider le bénéficiaire de manière concrète. » Á la lecture de ce rapport, dans un souci d’efficacité, l’obligation d’activités d’insertion devrait avant tout peser sur les pouvoirs publics : si l’objectif est que les allocataires effectuent ces activités, avant de les contraindre, il faudrait déjà leur en proposer. Une posture de défiance a priori va à l’encontre du principe de réciprocité.

La justification du durcissement de la conditionnalité en termes de meilleure insertion est un principe d’efficacité qui peut être testé empiriquement : que disent les études économiques sur les effets d’un durcissement de la conditionnalité en termes d’obligation d’accompagnement ? Soulignons d’abord qu’il est difficile de parler de consensus académique à ce sujet : les études existantes ont été réalisées dans plusieurs pays, notamment de l’Union européenne, dans des contextes économiques différents, sur des minima sociaux qui varient en niveau et avec des types de conditionnalité qui diffèrent d’une étude à l’autre. Les sanctions sont de plus souvent pilotées localement et dépendent parfois de l’arbitraire des référents (arbitraire qui peut évoluer selon le discours politique ambiant et/ou les mesures réellement votées). Cela dit, on peut dire avec un niveau de confiance élevé que le durcissement de la conditionnalité a un impact potentiellement important sur … le non-recours aux minima sociaux. En effet un durcissement de la conditionnalité aggrave un nombre important de facteurs expliquant le non-recours : crainte de la stigmatisation, complexité des règles, contrôle des bénéficiaires, valeur morale de « non-dépendance » à l’égard de la société, crainte d’une sanction arbitraire, défiance vis-à-vis d’une personne détenant une autorité (DREES, 2022)…  Il n’est pas anodin que le non-recours soit estimé en France à 34% pour les éligibles au RSA un trimestre donné (20% de façon pérenne pour les foyers éligibles 3 trimestres consécutifs). À titre de comparaison, le non-recours aux allocations logement, qui concernent en partie le même public, est estimé à environ 5% et la différence s’explique en grande partie par le caractère conditionnel du RSA[2].

Quid des effets du durcissement de la conditionnalité du minimum social sur la situation professionnelle des allocataires ? Ces dispositifs augmentent-ils les chances pour ces publics à retrouver un emploi (stable et de qualité)? Sur ce point, le niveau de confiance dans les résultats empiriques (européens) est moins élevé en raison d’effets allant dans des directions opposées. Il y a des allocataires de minima sociaux pour lesquels l’accompagnement et l’obligation d’accompagnement ont un effet bénéfique en termes d’information ou de motivation, ce qui se traduit par une sortie vers l’emploi plus rapide. Cette sortie peut se faire soit avec une qualité de l’emploi non dégradée[3] (effet 1, +[4]), soit vers un emploi de qualité dégradée. Une sortie vers un emploi « dégradé » peut être un tremplin vers un emploi de meilleure qualité (effet 2a, +), ou être un frein (effet 2b, -). Cette deuxième possibilité, souvent ignorée, ne doit pas être sous-estimée : l’emploi de mauvaise qualité est souvent une trappe car il réduit – par rapport au chômage – la recherche d’emploi de meilleure qualité en raison des risques et du coût (notamment en temps) à passer d’un emploi à l’autre. En allant plus rapidement vers l’emploi, certains allocataires du RSA vont dépasser d’autres chômeurs dans la file d’attente et ces derniers resteront plus longtemps au chômage (effet 3, -). Cet effet d’équilibre n’est pas toujours bien évalué dans les études. Enfin, pour certains allocataires du RSA, l’obligation d’accompagnement n’entraînera pas une sortie vers l’emploi mais au contraire une sortie vers le bas, c’est-à-dire vers le non-recours. Or, le non-recours augmente la vulnérabilité du public visé et donc à terme, sa probabilité de sortir vers l’emploi stable et de qualité (4, -) : la vraie trappe à pauvreté est ainsi la pauvreté elle-même. Tous ces effets s’additionnent et l’impact global est difficile à estimer. Il est de toute façon difficile à résumer avec un chiffre ou une moyenne. Par exemple, dans leur revue de littérature d’études publiées en anglais, Pattaro et al. (2022) soulignent que « … les études sur le marché du travail, couvrant les deux tiers de [leur] échantillon, rapportaient systématiquement des impacts positifs pour l’emploi mais négatifs sur la qualité et la stabilité de l’emploi à plus long terme ainsi que des transitions accrues vers le non-emploi ou l’inactivité économique ». L’impact serait donc : emploi (+), qualité emploi (-), précarité (+), inactivité (+).  Mais les auteurs signalent aussi des effets en termes de maltraitance des enfants et de dégradation du bien-être infantile ! Il ressort donc qu’à court-terme, les effets apparaissent positifs, alors qu’à long et très long-terme ils sont négatifs. La conditionnalité et les sanctions accroissent les inégalités parmi le public visé : le retour plus rapide à l’emploi concerne par construction ceux qui sont les plus proches de l’emploi tandis que la chute dans l’inactivité concerne ceux qui sont les plus éloignés.

Une politique efficace d’accompagnement vers l’emploi devrait viser à réduire ces inégalités, ce qui nécessite de mettre en place des politiques basées sur le volontariat, moins stigmatisantes, et non une obligation couplée à la sanction. Un accompagnement renforcé apparaît statistiquement plus efficace, en termes de retour à l’emploi, lorsqu’il bénéficie aux personnes les plus proches de l’emploi mais en termes d’intérêt général, il est probablement préférable de cibler au contraire les plus éloignés du marché du travail. De plus, le renforcement de la conditionnalité impliquerait d’accentuer la distinction, parmi les allocataires, entre ceux qui relèvent du parcours social et ceux qui relèvent du parcours professionnel. C’est un problème : quel que soit leur éloignement de l’emploi, un accompagnement utile pour chaque allocataire requiert l’accès à une large gamme d’interventions, sociales et professionnelles.

Les discours abstraits sur les « droits et devoirs » des « assistés » ne font que masquer la pauvreté de leurs droits (à un emploi, à un revenu convenable, à des politiques d’insertion). À viser un accompagnement intensif et obligatoire pour tous, mais à moindre coût, le risque est grand de mettre en place un système technocratique où les accompagnants font semblant d’accompagner des allocataires qui font semblant de se mobiliser.

Source: Rapport Guilluy

Que faire ? Le pari de la réciprocité

À l’inverse, suivant une logique de réciprocité, il faudrait revenir aux principes qui guidaient le Revenu minimum d’insertion créé en 1989. À l‘époque, c’était le revenu lui-même qui insérait (revenu d’insertion)[5] ; le devoir d’effort d’insertion pesait d’abord sur les pouvoirs publics[6] et la réciprocité était présumé ex-ante : le bénéficiaire des minima sociaux n’avait pas à faire preuve d’efforts avant de recevoir la prestation, mais celle-ci pouvait être suspendue dans quelques cas exceptionnels, en cas de manquement manifeste[7]. La réciprocité est toujours un pari et implique un certain niveau de confiance ; elle ne doit pas être confondue ni avec la logique rétributive, ni avec la logique paternaliste et punitive. 


[1] Pour une argumentation complète, voir Rawls, Théorie de la Justice.

[2] Il existe tout de même deux autres différences importantes. Premièrement, les allocations logement peuvent être perçues comme une subvention, ce qui est moins stigmatisant qu’un revenu d’assistance. Deuxièmement, le calcul d’éligibilité était réalisé sur une base annuelle, ce qui permet un lissage des revenus. Il est préférable de comparer le non-recours de 5% au 20% du RSA qui ne recourent pas de façon pérenne. En effet, d’autres ont droit au RSA de façon ponctuelle sur 1 trimestre mais n’y recourent pas par manque d’information ou pour limiter le coût administratif ou parce qu’ils considèrent ne pas en avoir besoin.

[3] Par rapport aux emplois qui auraient été repris sans conditionnalité renforcée.

[4] On indique par « + » ou « – » si les effets de l’accompagnement sur l’emploi et sa qualité sont positifs ou négatifs.

[5] « L’important est qu’un moyen de vivre ou plutôt de survivre soit garanti à ceux qui n’ont rien, qui ne peuvent rien, qui ne sont rien. C’est la condition de leur réinsertion sociale » François Mitterrand, 1988, Lettre aux Français.

[6] Le titre 3 de la loi de 1989 commence à décrire le dispositif départemental d’insertion et les obligations qui incombent au Conseil départemental (chapitre 1), puis le dispositif local d’insertion (chapitre 2) puis enfin le contrat d’insertion et la nature des ‘engagements réciproques’ (chapitre 3). L’article 42-5 prévoit que : « L’insertion proposée aux bénéficiaires du Revenu minimum d’insertion et définie avec eux peut, notamment, prendre une ou plusieurs des formes suivantes ».

[7] Par dérogation aux articles 13 et 14, le représentant de l’État suspend le versement de l’allocation dans les cas suivants :

  1. Lorsque l’intéressé ne s’engage pas dans la démarche d’insertion, notamment en vue de signer le contrat d’insertion, ou son renouvellement, ou encore ne s’engage pas dans sa mise en œuvre ; l’absence à deux convocations consécutives sans motif grave entraîne la suspension de l’allocation ;
  2. Lorsque des éléments ou informations font apparaître que les revenus déclarés sont inexacts ou que l’intéressé exerce une activité professionnelle.



Inégalités et modèles macroéconomiques

par Stéphane Auray et Aurélien Eyquem

« Tous les modèles sont faux mais certains sont utiles ». Cette citation de Georges Box a souvent été utilisée pour justifier les hypothèses réductrices faites dans les modèles macroéconomiques. L’une d’elles a longtemps été critiquée : le fait que le comportement des ménages, bien que différents (hétérogènes) dans leurs caractéristiques individuelles (âge, profession, genre, revenu, patrimoine, état de santé, statut sur le marché du travail), puisse être approximé au niveau macroéconomique par celui d’un agent dit « représentatif ». Faire l’hypothèse d’un agent représentatif revient à considérer que l’hétérogénéité des agents et les inégalités qui en résultent importent peu pour les fluctuations agrégées.



Les économistes ne sont pas aveugles et savent bien que les ménages, les firmes ou les banques ne sont pas tous identiques. De nombreux travaux se sont intéressés aux effets de l’hétérogénéité des ménages sur l’épargne agrégée et par suite, sur les fluctuations macroéconomiques[1]. D’une autre façon, certains travaux proposent des modèles dits « à générations imbriquées » dans lesquels l’âge joue un rôle important[2].

Le plus souvent, dans ces modèles, les ménages transitent d’un état à l’autre (de l’emploi vers le chômage, d’un niveau de compétence et donc de revenu vers un autre, d’un âge vers un autre) et connaissent les probabilités de transition. En l’absence de mécanismes d’assurance (chômage, redistribution, santé), ces risques anticipés de transition produisent un risque anticipé de revenu ou de santé qui pousse les agents à épargner pour s’assurer. De surcroît, les différences de comportements d’épargne et de consommation sont susceptibles d’induire également des comportements différenciés en termes d’offre de travail. Enfin, les changements dans l’environnement macroéconomique (variation du taux de chômage, des taux d’intérêt, des salaires, des impôts et cotisations, des dépenses publiques, des dispositifs d’assurance existants) affectent potentiellement ces probabilités individuelles et les comportements microéconomiques qui en résultent. Les risques agrégés affectent donc chaque ménage de manière différente selon ses caractéristiques, ce qui génère des effets d’équilibre général et des effets redistributifs. Pourtant ces travaux relativement anciens se sont heurtés à deux obstacles.

Le premier est d’ordre technique : suivre dans le temps l’évolution de distributions d’agents est une tâche mathématiquement complexe. Bien sûr il est possible de réduire l’ampleur de l’hétérogénéité en se limitant à deux agents (ou deux types d’agents) : ceux ayant accès aux marchés financiers et ceux étant contraints de consommer leur revenu à chaque période[3], les actifs et les retraités, etc. Mais si ces modèles simplifiés permettent de comprendre et valider les grandes intuitions, ils demeurent limités notamment d’un point de vue empirique. Ils ne permettent pas, par exemple, d’étudier l’évolution des inégalités sur l’ensemble de la distribution des revenus ou des patrimoines de manière réaliste.

Le second est plus profond : plusieurs de ces travaux concluaient que les modèles à agents hétérogènes, bien que beaucoup plus complexes à manipuler, n’avaient pas de performances nettement supérieures aux modèles à agents représentatifs en termes de validation macroéconomique agrégée (Krusell et Smith, 1998). Certes, leur projet n’était pas d’étudier l’évolution des inégalités ou leurs effets macroéconomiques, mais plutôt la contribution de l’hétérogénéité des agents à la dynamique agrégée. De fait, le sujet des inégalités a longtemps été considéré comme étant orthogonal ou presque à l’analyse macroéconomique (du moins celle s’intéressant aux fluctuations) et comme relevant plutôt de l’économie du travail, de la microéconomie ou de la théorie des choix collectifs. Ainsi, les modèles à agents hétérogènes ont souffert pendant longtemps de cette image d’objet inutilement complexe dans l’analyse macroéconomique des fluctuations.

Ces dernières années, ces modèles connaissent un renouveau exceptionnel au point qu’ils semblent devenir le standard de l’analyse macroéconomique. Le premier obstacle a été levé par l’augmentation exponentielle de la puissance de calcul utilisée pour résoudre et simuler ces modèles, combinée au développement d’outils mathématiques puissants permettant de résoudre ces modèles plus facilement (Achdou et al. 2022). Le second obstacle a été levé par un triple mouvement que nous détaillons ci-dessous : la montée en puissance des travaux (notamment empiriques) montrant l’importance des inégalités de revenus et de patrimoines pour les questions relevant typiquement de la macroéconomie – au-delà de leur intérêt intrinsèque –; le développement d’outils de mesure des inégalités permettant un rapprochement avec l’analyse macroéconomique et le raffinement des hypothèses considérées dans les modèles à agents hétérogènes.

Tout d’abord, de nombreux travaux empiriques montrent que l’épargne de précaution joue un rôle majeur dans les fluctuations macroéconomiques (Gourinchas et Parker, 2001). Mais cette épargne de précaution et la sensibilité de l’épargne (et des dépenses des ménages) aux revenus ne sont pas identiques pour tous les ménages. En effet, les travaux empiriques suggèrent que la propension marginale à consommer (PMC) agrégée se situe entre 15% et 25% (Jappelli et Pistaferri, 2010), et que la PMC d’une grande partie de la population est supérieure à la PMC obtenue dans les modèles à agents représentatifs. Dans les modèles à agents représentatifs et en haut de la distribution des patrimoines, celle-ci est approximativement égale au taux d’intérêt réel, et donc très inférieure aux estimations empiriques (voir Kaplan et Violante, 2022). Comprendre à travers de solides fondements microéconomiques l’origine d’une PMC agrégée élevée est donc critique, notamment si l’on souhaite étudier de manière réaliste les effets des politiques macroéconomiques (monétaire, budgétaire, etc.) qui reposent sur des effets multiplicateurs liées à la distribution des PMC.

Ensuite, ces dernières années, une littérature abondante et de plus en plus étoffée empiriquement s’est développée sur les questions liées aux inégalités de revenus. Á la suite de l’article fondateur d’Atkinson (1970) puis de développements plus récents[4], nous disposons désormais de séries longues mesurant les inégalités de revenu avant et après impôts, les inégalités de patrimoine, sur l’ensemble de la distribution des ménages pour un grand nombre de pays. Ce que l’on appelle les comptes nationaux distributionnels (Distributional National Accounts) permet enfin de confronter de manière très fine les prédictions de modèles macroéconomiques à agents hétérogènes aux données microéconomiques ayant une cohérence totale avec le cadre de l’analyse macroéconomique.

Enfin, les modèles à agents hétérogènes eux-mêmes ont évolué. En effet, les modèles de « première génération » considéraient généralement un seul actif (le capital physique, autrement dit les actions des entreprises) et empêchaient les agents de s’endetter, ce qui les conduisait à épargner pour un motif de précaution. Ces hypothèses ne permettaient pas de comprendre pourquoi les PMC étaient élevées. Elles ne parvenaient pas à répliquer correctement la distribution observée des revenus et surtout des patrimoines. En réalité, les ménages ont accès à plusieurs actifs (épargne liquide, logement, actions) et la composition de leur richesse est très différente selon le niveau de patrimoine : les ménages commencent généralement à épargner sous forme liquide, puis investissent leur épargne dans l’immobilier en contractant des prêts bancaires, et enfin diversifient leur épargne (seulement pour les plus gros patrimoines, au-delà du 60e percentile de la distribution des patrimoines) en achetant des actions (Auray, Eyquem, Goupille-Lebret et Garbinti, 2023). Ce faisant, une grande partie de la population se retrouve endettée pour constituer un patrimoine immobilier, donc peu liquide. Bien qu’ayant des revenus importants, de nombreux ménages consomment donc presque tout leur revenu, ce qui réduit leur capacité d’auto-assurance via l’épargne. Cela accroît leur PMC (et donc la PMC agrégée) conformément aux observations empiriques (Kaplan, Violante et Weidner, 2014).

Ainsi, les macroéconomistes peuvent aujourd’hui intégrer pleinement l’analyse des inégalités de revenu, de patrimoine, de santé, au sein de modèles fondés sur des comportements microéconomiques plus réalistes. Ils peuvent réinterroger les consensus obtenus concernant la conduite des politiques monétaires[5] ou budgétaires[6] et en interroger les effets redistributifs. Ils sont également en mesure de quantifier les effets agrégés et redistributifs de politiques commerciales ou environnementales, qui sont/seront au cœur de leur acceptabilité politique. De nouveaux horizons pour des modèles moins faux et plus utiles.


[1] Voir notamment Bewley (1977), Campbell et Mankiw (1991), Aiyagari (1994), Krusell et Smith (1998), Castaneda, Diaz-Gimenez et Rios-Rull (1998).

[2] Voir les travaux d’Allais (1947) et de Samuelson (1958) puis entre autres de De Nardi (2004).

[3] Voir Campbell et Mankiw (1989) ; Bilbiie et Straub (2004) ; Gali, Lopez-Salido et Valles (2007).

[4] Voir Piketty (2001, 2003), Piketty et Saez (2003, 2006), Atkinson, Piketty et Saez (2011), Piketty, Saez et Zucman (2018) et Alvaredo et al. (2020).

[5] Kaplan, Moll et Violante (2018) ; Auclert (2019) ; Le Grand, Martin-Baillon et Ragot (2023).

[6] Heathcote (2005) ; Le Grand et Ragot (2022) ; Bayer, Born et Luetticke (2020)              .




Lessons From SVB for Economists and Policymakers[1]

Par Russell Cooper and Hubert Kempf

Time has passed since the March 10 Silicon Valley Bank bank run. Yet this may not be the end of the affair. On Monday March 18, 2023, the Financial Times reported that savers withdrew 60 billion dollars in the first quarter of 2023 from three large US financial institutions. From other reports, withdrawals continue.

It is time to reflect on the SVB failure and the ensuing policy responses. Though this was a US banking experience, the lessons extend across borders. In fact, as noted, some of the concerns over commitment are perhaps even more of a concern in Europe.



Lessons for economists: Enriching the theory of bank runs

Traditionally, bank runs have been addressed by economists through the lense of the work of Diamond and Dybvig (1983) model, hereafter DD. Last year, the committee for the Nobel prize in Economics made clear that this was a fundamental contribution to our understanding of banks and their inherent fragility. But models are abstractions and, based on our recent experience, the DD framework needs to be enriched to provide both an understanding of these events and the policy responses.

DD explains the illiquidity of banks and its consequences for banking fragility. Banks have a choice between short term liquid investment and long term illiquid investment. The returns are certain with the long term investment providing a higher return. All else the same, banks would prefer to invest deposits in these long term assets and thus earn higher returns.

But depositors, households in the model, have random liquidity needs. The bank meets these needs by investing some of its deposits in a liquid asset, just avoiding costly liquidations of the long term investment. The bank optimally selects its portfolio to meet the normal demand for liquidity of its depositors. The bank is solvent and sufficiently liquid. Normally.

But there is a chance that depositors will panic, turning the normal demand for liquidity into a bank run. In such a situation, the bank may be unable to meet the demand of all depositors even after liquidating its illiquid assets. In the end, the depositors, acting in their self interest, make the right choice: run on the bank when everyone else does. But collectively, there is a loss: a solvent bank failed due to its illiquidity.

In the DD framework, the problem of a run can be solved through the provision of deposit insurance. An iron-clad guarantee that the government will provide deposit insurance in the event of a run is sufficient to avoid the run. Theoretically this is known as a commitment assumption. What is important though is that the government’s commitment to deposit insurance includes a willingness to use taxation as needed to finance the deposit insurance.

Looking at the SVB experience, there are clearly some elements missing in the DD framework. We here highlight some important items upon which economists should reflect.

  1. Monetary policy impacts the value of liquid assets. In the DD model, the two assets’s returns are invariant and there is no market risk. In the real life, this is not so. The tightening of the Fed raised interest rates and thus lowered the prices of liquid assets. All else the same, the reduction of the value of liquid assets makes banks, such as SVB, more vulnerable to runs.
  2. Even with deposit insurance, there are depositors over the limit. In the standard version of the DD model, once there is credible deposit insurance, runs no longer happen as everyone is covered. But that is because it is assumed that all deposits are insured. The SVB episode taught us that this is not the case.
  3. In the standard DD model, banks have no access to equity if they become unstable. In the SVB episode there was an attempt to raise more equity to meet the needs to depositors. But this source of funding evaporated. The need to understand the interaction of the decisions of equity investors along with depositors is made clear by this episode.
  4. The standard interpretation of the DD model is that depositors are households. In the case of  SVB, they were largely firms, with loans from that same bank. Evidently, probably for incentive reasons, there was a link between making a loan to a firm and requiring funds to be deposited at a bank. This connection is absent from the standard DD model.

Lessons for Bank Regulators and the Treasury.

The policy response of the US government, involving bank regulators and the Treasury, to the SVB failure can be neatly summarized by two points:

  1. the cap on deposit insurance, that is, the upper limit on deposits entitled for insurance, is (apparently) gone and all depositors are protected;
  2. yet, taxpayers are not at risk.

This looks too good to be true. Hence an annoying concern creeps in: does this package really stabilize the US banking system? This is an important question which cannot be neglected or put aside as all too often the policies which are adopted to deal with one crisis sets in motion the next one.

Answering this question and thus assessing the policies put in place builds upon the lessons drawn from the DD model.

1. No cap anymore

The first part of the package apparently extends deposit insurance to everyone, without limit.[2] Given that the run at the SVB was in part driven by uninsured depositors, this appears to be an easy way to stabilize the banks. But it should be emphasized that it came after the crisis, undermining the credibility of the whole deposit insurance scheme.

While the response to the SVB run did not take away deposit insurance, the extension to supposedly uninsured depositors made clear that the guidelines for the provision of deposit insurance are, just that, guidelines. Clearly the US government seems willing to decide after the fact exactly what insurance to provide. Raising doubts about the credibility of deposit insurance is a potential cost to this intervention.

And this is related to the relaxation of the cap. A cap limits the funds that are transferred from the relatively poor households to rich depositors through taxation, either direct or indirect. An increase in the cap means more redistribution towards the rich (more rich people are compensated by the public insurance scheme). All else the same, this reduces the credibility of promised deposit insurance, either in whole or perhaps just through the adoption of a cap ex post.

2. No Taxpayer at Risk

About the second point, here is a quote from the US President Joe Biden:

“First, all customers who had deposits in these banks can rest assured — I want to — rest assured they’ll be protected and they’ll have access to their money as of today. That includes small businesses across the country that banked there and need to make payroll, pay their bills, and stay open for business.

No losses will be — and I want — this is an important point — no losses will be borne by the taxpayers. Let me repeat that: No losses will be borne by the taxpayers. Instead, the money will come from the fees that banks pay into the Deposit Insurance Fund.”

Normally, one would think that in the event of a run, taxpayers have to bear some of the burden of providing deposit insurance. If the government has to provide say $10 trillion in deposit insurance in a systemic run, then a source for this must be taxation. It could be immediate taxation or debt financing of the deposit insurance today with taxes coming in the future.[3]

If, under the current US plan, taxpayers are off the hook for financing deposit insurance, then where will the resources come from? Could the answer be through the resources of the Federal Deposit Insurance Corporation (FDIC)? The fund is created through contributions of member banks. Depositors of these banks receive protection through this fund.

But the unfortunate reality is that the resources of this fund are small relative to potential depositor needs. From the FDIC, the fund has a target to be able to protect 2% of the deposits in the US. This is surely enough money if one bank fails. It is far from enough if all banks fail.

The FDIC states that its insurance is backed by “ … the full faith and credit of the United States government.” This is a good thing given the relatively small size of the actual funds at its immediate disposal. But this backing is what the recent policies of the US government have taken off the table. If no taxpayers are at risk, then there must be no tax revenue that will flow to the FDIC in the event of a run. That is fine, as long as the run is not too large.

The problem here is that a small run can become a big run due to contagion. Imagine there is a run and a bank is shutdown, requiring some FDIC insurance payments. To make the point directly, suppose that those payments alone required the 2% of the deposit insurance fund. This means that the remaining deposits in all other banks are not longer insured. This is a recipe for additional runs.

This prospect raises the question of the financing of this extended insurance. If taxpayers are protected (as claimed by President Biden) and deposit insurance coverage is extended, the fund of the FDIC is simply inadequate. So, with taxpayers out of the equation, it seems that this promise of full insurance is empty: no runs are prevented.

What if taxpayers were not protected and instead the FDIC had the backing of the US government? That means the government would raise taxes or issues debt (so raising future taxes) in response to a run. If this was credible, then that would be enough to avoid the run.

Is this promise credible? That is, would the government actually go ahead and raise taxes to pay off depositors?

This is exactly the question we have analyzed in our joint research. [4] We argue that the taxation needed to finance deposit insurance may entail a redistribution from poor (Main St.) to rich (Wall St.). The magnitude of this redistribution depends on the relatively size of the deposits being insured and the progressivity of the tax system. If the tax system is not very progressive (we study the case of a lump-sum tax), then the provision of deposit insurance does imply that the rich get a lot more from their deposits being insured compared to the poor. This may be socially undesirable. If so, this means that in the event of a run the government may not have the incentive to provide the promised deposit insurance.

A commitment problem exists in the US system even with deposit insurance provided at the federal level. In Europe this problem is magnified by three factors: (i) country specific deposit insurance schemes, (ii) cross border flows of deposits and loans and (iii) the lack of a central Treasury to provide a fiscal backstop for deposit insurance.

Lessons for Monetary Policy

Lastly, there is the issue of monetary policy and the role of central banking. Two issues require attention.

The first one is about the impact of tighter monetary policy on the fragility of banks. The monetary authority needs to keep this in mind. If the Fed (or the ECB) chooses to “fight” inflation through high interest rates, the resulting reduction in the value of government debt impacts the balance sheets of banks. This additional (perhaps new) channel of monetary policy needs to be taken into account in making assessments of the effects of higher interest rates. It looks pretty clear that the central bankers in advanced countries recently tended to downplay this channel, focusing instead on fighting the surge in inflation. It might end up in being an adventurous challenge. If the current state develops into a full-fledged banking panic, central banks will have to rapidly shift to an extremely accommodative policy, as in 2008. But, this time, it will be in an inflation-prone sequence.

The second issue is about the policy mix. Answering a question from Simon Rabinovitch, US economics editor for The Economist, Jerome Powell, the chairman of the Fed, said depositors “should assume” they are safe. Around the same time Janet Yellen, the treasury secretary, said that expanding insurance to all depositors is not under consideration. As the editor-in-chief of the magazine wrote,

“They can’t both be right ! “

This is disturbing for two reasons. The first is, as we said above, that claiming that depositors “should feel safe” is ambiguous enough to be a clear sign of the unwillingness to commit and therefore spread defiance toward the banking sector, or at least to its weaker part.

The second reason is that the plurality of opinion from the two top policymakers in the US is weakening further the trust in the solidity of the US banking sector. The willingness of the Treasury secretary not to lift the cap on deposit insurance is understandable. The dimension of a bank panic (a generalized bank run, not targeting one particular bank but the entire banking system) cannot be foreseen ex ante. It may be so large that it would create havoc on the financial system and in case of a pledge to insure all deposits an unsustainable burden on the federal Treasury. But it also shows that the claim by Biden that the no tax will be used to insure banks is shallow. On the opposite, the assertion by Jerome Powell that depositors should feel safe is both a tentative to instill optimism in the depositors and play on their beliefs and a way to put pressure on the Federal Treasury pointing to its responsibility (and not the Fed) in the case of a run or a panic. The combination of both claims is a further example of the impossibility to commit and the need to insure bank deposits. The contradictions between the two statements prove that the cooperation between the two major public authorities concerned by the stability of the banking system is likely not to be smooth and harmonious.

Going Forward

To sum up, after the SVB debacle, it is not clear where we stand with the provision of deposit insurance in the US even though the stability of the banking system requires clearly stated and credible policies. To achieve this objective, the sound advice of economists should be searched for rather than the quick solutions provided by the political process.


[1] This is a revised and expanded version of “Lessons From SVB” posted on Substack by Russell Cooper on April 16, 2023. https://cooperecon.substack.com/p/lessons-from-svb

[2] Recent testimony by Treasury Secretary Yellen appears to take a step back, linking the provision of deposit insurance above caps to the determination of systemic risk.

[3] Of course the FDIC can respond by replenishing its fund by demanding more contributions from the remaining banks. But this itself will hasten the instability, putting more banks in trouble.

[4] Cooper, Russell, and Hubert Kempf. “Deposit Insurance and Bank Liquidation without Commitment: Can We Sleep Well?” Economic Theory 61, no. 2 (2016): 365–92. http://www.jstor.org/stable/24735338.




Le travail en crise : une question autant économique que sociale

par Jean-Luc Gaffard

Perte de sens du travail, absence de motivation, recherche de l’épanouissement personnel constituent des éléments de langage qui sont devenus courants dans les médias et donnent lieu à nombre de réflexions sociologiques et philosophiques. En outre, le remplacement de l’homme par la machine est de nouveau prédit en écho des bouleversements technologiques qui ont pour nom aujourd’hui intelligence artificielle. La réduction du nombre d’emplois qui en résulterait alimente le discours sur la fin du travail et le droit à la paresse remis au goût du jour.



Curieusement, l’analyse économique n’est guère appelée en soutien de la réflexion sinon pour dénoncer les méfaits du marché tout entier tourné vers l’accumulation de richesses au bénéfice d‘un petit nombre de privilégiés. Pourtant, si l’on se départit de ce discours convenu qui se limite à la dénonciation d’un coupable commode, le capitalisme ou la finance, les questions légitimes sur la place du travail dans l’économie et la société pourraient trouver des réponses moins simplistes, prenant appui sur la théorie et l’histoire économiques.  

L’état des lieux

Avant toute chose, il importe de préciser quelques faits saillants qui caractérisent la situation actuelle du travail et de l’emploi et résultent de mécanismes à la fois économiques et sociaux. Ces faits témoignent de l’atteinte portée à la capacité de redéploiement d’une économie confrontée à des transformations structurelles en l’occurrence initiées par les transitions écologique et digitale.

D’un point de vue d’analyse économique, le rapport au travail change profondément dans une économie en situation de croissance et de plein emploi pour une durée significativement longue. Les gains de productivité permettent hausse des salaires, diminution séculaire du temps individuel de travail et, corrélativement, augmentation du temps de loisir. De nouvelles activités deviennent possibles qui répondent à d’autres aspirations que pécuniaires en même temps que de nouvelles exigences se font jour sur les conditions et le contenu du travail. Ce que d’aucuns appellent le capitalisme paradoxal prend place[1] : il repose sur l’augmentation conjointe du temps de travail et du temps de loisir. L’augmentation du temps global de travail est essentiellement fondée sur la croissance de la population en âge de travailler, l’immigration et la hausse des taux d’activité de fractions importantes de la population, en l’occurrence la population féminine quand s’opère la bascule du travail domestique non rémunéré vers un travail dont la rémunération vient augmenter le produit intérieur brut. L’augmentation du temps de loisir ouvre la voie à de nouvelles activités marchandes et stimule la croissance. S’il est vrai que la baisse de la durée individuelle du travail, l’amélioration des conditions de travail, la hausse des salaires sont le fruit des luttes sociales sanctionnées par les progrès du Droit du travail et le Droit de la protection sociale, il est non moins vrai que ces avancées ont assuré la viabilité d’économies de marché intrinsèquement instables.

Cette évolution séculaire des situations et des comportements est inévitablement contrariée dans une économie qui connaît un chômage de masse durable et (ou) une montée du dualisme du marché du travail qui se manifeste par la polarisation des emplois et des salaires. Le changement du rapport au travail n’a plus le caractère volontaire que l’on pouvait lui prêter pour la simple raison que le travail en étant source de revenus est la condition du développement des activités hors emploi et que ce lien est menacé. La solution du partage du travail est doublement illusoire : réduire le temps de travail individuel et augmenter corrélativement le nombre des emplois risque de se traduire par une chute de la productivité et une diminution du revenu global ; en l’absence de compensation, une diminution des revenus individuels toucherait les salariés les plus pauvres qui devrait renoncer à des consommations correspondant pour certaines d’entre elles à des besoins premiers.

La source des problèmes

Ce constat appelle à revenir à la source des problèmes. Le chômage des travailleurs les moins qualifiés et le dualisme du marché du travail sont la conséquence de la mondialisation et de la désindustrialisation qui l’a accompagnée dans un contexte où les managers exécutifs des grandes entreprises ont quelque peu perdu de vue que les salaires étaient une composante essentielle de la demande globale.

Une trappe à inégalités primaires de revenus et basses qualifications a vu le jour et s’est approfondie. Les travailleurs licenciés des activités industrielles en déclin se sont reportés, faute de temps et de moyens financiers, sur des emplois de service peu qualifiés et souvent précaires. Des exonérations de cotisations sociales sur les bas salaires ou l’introduction d’un impôt négatif ont favorisé la création d’emplois peu qualifiés. Des emplois publics, possiblement en surnombre, souvent à caractère administratif, ont pu constituer un palliatif. Il reste que tous ces emplois ont pour seule dimension positive d’être source de revenus. Ils ont en commun d’offrir peu de possibilités de progression aussi bien en termes de salaire que de qualification. En outre, nombre de ces emplois sont affectés de conditions de travail dégradées le plus souvent liées à leur nature qui implique une forte exposition aux risques physiques et psycho-sociaux.

Concrètement, il est difficile de parler d’un changement du rapport au travail si l’on entend par là un nouveau comportement des salariés alors qu’est en cause le fait que nombre d’emplois proposés restent peu valorisants pour ceux qui les occupent. C’est plutôt de revendication tout à fait classique qu’il faudrait parler, une revendication qui porte à la fois sur le montant des salaires, sur les conditions de travail et sur le partage entre temps dédié au travail et temps dédié aux loisirs, ce dernier incluant le temps passé en retraite, une revendication d’autant plus forte que s’installe une inflation durable.

Mais là n’est peut-être pas le point important si l’on se projette à moyen ou long terme. Un piège s’ouvre : celui d’une économie contrainte par de faibles gains de productivité et une faible croissance. Cette économie peut se trouver aux prises avec une hausse des financements de transferts par l’État qui atteignent des pourcentages significatifs du montant des salaires[2], une hausse de la dette publique et une hausse du déficit extérieur, situation dont la soutenabilité peut être questionnée. L’échec est celui de la transition pourtant rendue nécessaire sans doute par l’évolution de la mondialisation mais aussi par la crise écologique et la révolution digitale.

Le chemin alternatif

Le chemin alternatif est celui d’un renouvellement des relations de travail en accord avec l’objectif de transition écologique et digitale.

Redonner du sens à la relation de travail passe avant toute chose par la création de nouveaux emplois qualifiés qui justifie une hausse des salaires en même temps qu’elle assure une hausse de la productivité du travail et garantit le financement de la protection sociale. Une nouvelle industrialisation (ou une réindustrialisation) est le véritable objectif. Elle repose sur le choix des entreprises de s’engager à réaliser des investissements à long terme et à renouveler la relation de travail qui s’est dégradée pour une grande partie des travailleurs confrontés à un management des ressources humaines excessivement fondé sur la performance individuelle à court terme, quand ce n’est pas sur l’externalisation des tâches confiées à des sous-traitants, voire aux autoentrepreneurs des plateformes numériques.

Les entreprises engagées durablement et efficacement dans de nouveaux investissements doivent être organisées autour de coalitions d’intérêts, ceux des actionnaires, des banquiers, des salariés, des clients et des fournisseurs, coalitions dont l’objectif est de faire partager à ces parties prenantes un même récit de l’avenir à moyen ou long terme. S’agissant du travail, les engagements portent sur le développement de contrats longs, l’intéressement des salariés aux résultats, l’apprentissage interne des nouvelles qualifications, et dans les grandes entreprises la codétermination des choix objectifs stratégiques.

De tels engagements sont la condition de la viabilité des changements structurels associés aux transitions digitale et écologique. Aussi faut-il subordonner les aides publiques au développement de nouvelles technologies conformes à ces engagements. C’est ce qu’initie notamment la récente législation américaine, l’Inflation Reduction Act, qui lie les aides aux conditions de rémunération et de travail des salariés. Le propos n’est pas d’introduire un droit à l’épanouissement au travail perçu comme une contrainte imposée aux employeurs mais bien de changer le rapport au travail en réinventant les conventions qui lient les parties constituantes de l’entreprise et structurent le rapport salarial. À certains égards, il s’agit de renouer avec l’initiative de Ford de verser de « hauts » salaires, progressivement élargie avec l’indexation des salaires sur les gains de productivité du travail pendant la période dite des trente glorieuses, dont le véritable objectif est de soutenir la demande face à une offre elle-même croissante, autrement dit d’établir un fondement macroéconomique de la microéconomie.

Le fondement macroéconomique de la microéconomie

Aujourd’hui, c’est moins d’un retour en arrière qu’il s’agit que d’un retour vers le futur. Dans les années 1970 et 1980, la doctrine dominante a voulu doter la macroéconomie d’un fondement microéconomique dont les maître-mots étaient l’optimisation intertemporelle des utilités individuelles et la flexibilité du marché du travail. Cette flexibilité n’était autre que le retour à la flexibilité du taux de salaire en réaction aux déséquilibres du marché du travail avec, comme justification, que leur rigidité à la baisse était la véritable cause d’un chômage que l’on entendait implicitement qualifier de chômage volontaire. Le travail redevenait un flux et une marchandise comme une autre sans que l’on s’arrête sur sa vraie nature de fonds de services dont l’usage s’inscrit dans la durée, sans considérer le temps nécessaire de construction et d’utilisation de ce fonds, sans envisager les irréversibilités liées à sa structuration en multiples qualifications dont l’évolution prend du temps[3].

Sous couvert d’une soi-disant avancée théorique, se cache la vieille idée dénoncée par Keynes selon laquelle, au contraire de la doctrine revenue à la mode, la rigidité des salaires relevait d’un comportement rationnel des travailleurs et des managers exécutifs et avait, entre autres, comme vertu d’enrayer la déflation. La fixation des salaires était par ailleurs et avant tout conventionnelle c’est-à-dire n’obéissait pas à la productivité marginale du travail. La flexibilité retrouvée du marché du travail n’a eu d’autre effet que de conduire à la polarisation des emplois et des salaires, autrement dit à un dualisme préjudiciable à la productivité et à la croissance.

Sortir de ce piège suppose de reconnaître à nouveau au contrat de travail sa vertu première qui est d’inscrire la relation de travail dans la durée et de permettre ainsi une adaptation des qualifications à l’évolution des métiers, un enrichissement des tâches pour répondre aux nouveaux contenus des emplois requis par les avancées techniques et scientifiques, bref de reconnaître au travail sa qualité de fonds de service. C’est cette flexibilité entendue comme la capacité de s’adapter sur une durée suffisamment longue dont l’économie a besoin. C’est de cette flexibilité qu’il faut attendre une plus grande créativité et une plus grande satisfaction au travail.

Cette évolution n’a rien de spontanée. Elle dépend de transformations nécessaires dans le management de l’entreprise, pas seulement celui des ressources humaines, dont l’objectif est de lui permettre de se projeter à long terme. La question du travail ne peut pas être dissociée de celle de la finance. Keynes expliquait que le chômage est d’abord la conséquence de dysfonctionnements de la finance quand la décision des détenteurs de capitaux conduit à des taux d’intérêt trop élevés au regard du taux de profit attendu des investissements productifs. Aujourd’hui chômage et précarité ont beaucoup à voir avec un management tributaire des performances boursières de l’entreprise à très court terme. Aussi le rétablissement du plein emploi et le versement de salaires à la hauteur des gains de productivité dépendent-ils de la patience des banques et des actionnaires prêts à engager des volumes de capitaux importants pour des périodes suffisamment longues. La production prend du temps – elle suit l’investissement – c’est la raison pour laquelle celui-ci ne sera mis en œuvre que si la patience des détenteurs de capitaux rend possible d’embaucher à long terme.

Cette évolution dépend aussi de transformations nécessaires de l’action publique. Celle-ci ne saurait davantage être réduite à une redistribution de revenus et à des substitutions d’activités visant à pallier les conséquences sociales du dualisme. Elle devrait être tournée vers l’augmentation des taux d’activité des jeunes et des seniors, le développement de la formation professionnelle et de la recherche, autrement dit une politique de l’offre envisagée, non dans la perspective de réduire le coût du travail, mais dans celle d’en augmenter le niveau de qualification et de répondre aux besoins de main d’œuvre des entreprises engagées dans des investissements à long terme.


[1] L’expression et l’observation sont d’O. Passet (« Le capitalisme paradoxal : augmenter le temps de travail et le temps de loisir » XerfiCanal 15-03-2023).

[2] Ce point est souligné par O. Passet qui parle de socialisation de l’économie (« Les ménages de plus en plus financés par les États » XerfiCanal 20 mars 2023)

[3] Voir N. Georgescu-Roegen (The Entropy Law and the Economic Process, Harvard University Press), 1971; M. Amendola et J.-L. Gaffard, Out of Equilibrium Oxford, Clarendon Press 1998 ;  J.-L. Gaffard, M. Amendola et F. Saraceno, Le temps retrouvé de l’économie, Paris, Odile Jacob.




États-Unis : les ménages continuent de puiser dans leur sur-épargne

par Christophe Blot

Selon le Bureau of Economic Analysis, la croissance américaine au premier trimestre 2023 a atteint 0,3 %, niveau légèrement supérieur à ce que nous avions anticipé[1]. Cette première estimation traduit la résilience de l’économie malgré la forte hausse de l’inflation qui ampute le pouvoir d’achat des ménages et le resserrement monétaire qui se traduit par un renchérissement des conditions de crédit et une baisse de la valeur des actifs boursiers. Comment expliquer cette situation conjoncturelle ? L’économie américaine peut-elle résister au resserrement monétaire ? Tout dépendra sans doute de l’évolution du taux d’épargne des ménages américains.



La publication des comptes pour le premier trimestre 2023 indique que la croissance a été principalement tirée par la demande intérieure hors stocks qui contribue à hauteur de 0,8 point tandis que les stocks ont joué très négativement (-0,7 point de contribution) et que le commerce extérieur a eu un effet quasi-neutre. Le moteur de la croissance reste la consommation des ménages qui a progressé de 0,9 % en rythme trimestriel[2]. Une telle situation pourrait surprendre dans la mesure où l’inflation rogne le pouvoir d’achat des ménages[3]. Même si elle est en repli depuis plusieurs mois, l’inflation mesurée par l’évolution du déflateur de consommation progressait encore de 4,9 % en glissement annuel au premier trimestre. Pour autant le pouvoir d’achat des ménages affiche une progression de 1,9 % au premier trimestre en raison de la bonne tenue de l’emploi et des salaires mais également d’une baisse des impôts[4]. Outre l’effet négatif de l’inflation, l’économie américaine est également freinée par le resserrement monétaire amorcé il y a un an par la Réserve fédérale[5]. L’effet de ce resserrement devrait s’amplifier. Depuis le milieu des années 1950, les récessions outre-Atlantique ont été souvent précédées d’un changement d’orientation de la politique monétaire (graphique 1). La corrélation n’indique pas forcément que la politique monétaire est seule responsable de ces récessions mais la théorie économique suggère clairement que la politique monétaire a joué un rôle via un effet négatif sur la demande intérieure[6]. De fait aujourd’hui, l’effet de la hausse des taux pourrait déjà avoir impacté les dépenses en investissement-logement qui continuent de baisser au premier trimestre.

La résilience de l’économie américaine dépendra cependant en grande partie de l’évolution de la consommation des ménages dont la dynamique a largement contribué à la reprise post-Covid. Depuis 2019, le revenu disponible des ménages (RdB) a progressé de 18,5 % en valeur reflétant à la fois le dynamisme des salaires au cours de la période mais également la politique généreuse de transferts menée par les administrations Trump puis Biden en 2020-2021[7]. Alors que les transferts représentaient en moyenne 19 % du RdB des ménages entre 2011 et 2019, cette part est montée à 24 et 25 % respectivement en 2020 et 2021. Il en a résulté une augmentation du taux d’épargne des ménages qui s’est élevé à 16,8 % du RdB en 2020 avec un pic à 26,4 % au deuxième trimestre dans un contexte où la consommation fut également contrainte (tableau). Sur l’année 2022, les mesures exceptionnelles prises pendant la crise sanitaire sont arrivées à terme et les ménages ont moins épargné, ce qui a permis d’amortir la baisse de pouvoir d’achat résultant de la poussée inflationniste. Le taux d’épargne est redescendu à 3,7 % alors que le RdB réel diminuait de 0,1%. Au premier trimestre 2023 le taux d’épargne s’établit à 4,8 %, en hausse par rapport au trimestre précédent. Sur l’ensemble de l’année, nous anticipons un taux d’épargne moyen de 4,1 %, ce qui implique une réduction du stock de sur-épargne qui avait atteint un pic à plus de 2 100 milliards de dollars, soit 12,9 % du RdB (graphique 2)[8]. Nous prévoyons certes un ralentissement mais pas de récession avec une croissance annuelle du PIB de 1,4 %. En effet, même si le gain de revenu disponible a été en partie rogné par l’inflation[9], l’épargne liquide – dépôts, comptes d’épargne et titres des fonds commun de placements monétaires – des ménages a augmenté de 36 % entre 2019 et 2022. Cette hausse reflète le placement, sous forme d’épargne liquide, des transferts reçus pendant la crise mais aussi sans doute des gains réalisés par les ménages par la cession d’autres actifs financiers. La résilience de la croissance dépendra de la capacité des ménages à amortir le choc et donc de leur comportement d’épargne. Les transferts ont certes été plutôt orientés vers les classes moyennes mais les liquidités existantes aujourd’hui pourraient être plus concentrées sur les classes les plus aisées. C’est pourquoi nous anticipons cette légère remontée du taux d’épargne sur l’année 2023. Toutefois, il resterait inférieur au niveau observé en 2019 de telle sorte que la consommation serait le principal moteur de la croissance.


[1] Voir « États-Unis, pilotage à hauts risques », dans la Revue de l’OFCE, n° 180.

[2] Les dépenses publiques – consommation et investissement – ont été également dynamiques (+1,3 % et +0,5 % respectivement) mais contribuent de fait assez peu à la croissance : +0,2 point chacun.

[3] Nous anticipions en effet une croissance trimestrielle de la consommation des ménages de 0,3 %.

[4] Le revenu disponible brut nominal a progressé de 3 % sur le premier trimestre 2023 contre une prévision à 1,5 %.

[5] Voir « Le marché du travail américain résistera-t-il au resserrement monétaire ? », OFCE Le Blog du 20 avril 2023.

[6] En 1974, la récession est effectivement précédée d’un resserrement monétaire mais elle est également consécutive au premier choc pétrolier et à la fin du régime de Bretton-Woods qui ont déstabilisé l’économie mondiale. En 2008-2009, l’ampleur de la récession s’explique par la crise financière globale. La politique monétaire a sans doute joué le rôle de déclencheur en provoquant l’ajustement du marché immobilier dans un contexte de fortes vulnérabilités. Pour autant, la contribution de la politique monétaire, indépendamment de l’effet d’amplification financière, est incertaine.

[7] La contribution des salaires à la progression du revenu disponible brut nominal s’élève à 15,4 points et celle des transferts à 5,2 points.

[8] En pratique, cela n’implique pas que le taux d’épargne continuera de baisser en 2023 mais qu’il se maintiendra à un niveau inférieur à celui de 2019. La référence au taux d’épargne pourrait néanmoins biaiser notre estimation de la sur-épargne Covid. Sur une période plus longue (2000-2019), le taux d’épargne moyen s’élève à 6 %. Notre hypothèse pour 2023 reste néanmoins celle d’un taux d’épargne inférieur.

[9] Le déflateur de la consommation a effectivement augmenté de 14,1 % entre le quatrième trimestre 2019 et le premier trimestre 2023.




L’intelligence artificielle Made in France à la recherche de ses grands groupes industriels

par Johanna Deperi, Ludovic Dibiaggio, Mohamed Keita et Lionel Nesta

Perçue comme la promesse de machines « intelligentes », l’intelligence artificielle (IA) est annoncée comme la source de bouleversements industriels à la mesure des révolutions majeures du XXe siècle. Ces enjeux justifient la multiplicité des politiques nationales et l’ampleur des investissements des principaux acteurs de l’IA. Á la suite des États-Unis, l’ensemble des pays industrialisés et certains pays émergents ainsi que les géants industriels se sont lancés dans des stratégies offensives annonçant des plans d’investissements considérables[1]. En nous appuyant sur PATSTAT, la base de données unique et exhaustive en matière de brevets, nous présentons ici deux singularités de la France, développées dans un Policy brief publié sur le site de l’OFCE.



La première singularité française est que sans être un leader mondial de l’innovation incorporant de l’intelligence artificielle, la France montre une activité modérée mais significative dans ce domaine

Le graphique 1 classe les 10 premiers pays producteurs de brevets. Avec respectivement 30% et 26% des brevets IA, les États-Unis et la Chine dominent la production mondiale d’innovations incorporant de l’IA. L’Union européenne et le Japon représentent tous deux 12%. Ainsi quatre brevets IA sur cinq émanent de ces quatre zones géographiques.  La Corée du Sud représente 6% des brevets IA.  Au sein de l’Union européenne, l’Allemagne est le pays le plus actif dans le domaine de l’IA. La France apparaît au septième rang mondial avec 2,4% de la production de brevets IA. Les 10 premiers pays comptabilisent 90% et les 20 premiers presque 97%.

Si l’on prend en compte la population, la Corée du Sud se singularise en produisant plus de 1 000 brevets IA par million d’habitants. Avec environ 800 brevets par million d’habitants, le Japon et les États-Unis se distinguent également par leur forte intensité en brevets IA.  Avec 234 brevets par million d’habitants, l’Europe se montre peu active. Mais ceci cache une forte disparité entre pays. Les Pays-Bas (574 brevets par million d’habitants), l’Allemagne (475) mais également la Finlande (748) et la suède (701) se montrent les plus actifs. Á l’inverse, l’Italie (72), l’Espagne (69), le Portugal (39), de même que les anciens pays de l’Est accusent un net retard. Avec 312 brevets par million d’habitants, la France se classe 15e au niveau mondial et garde une position médiane dans le monde et en Europe.

Une analyse plus fine révèle que la France est spécialisée en apprentissage automatique, en apprentissage non supervisé et en modèles graphiques probabilistes et aussi dans le développement de solutions liées aux sciences médicales, aux domaines des transports et de la sécurité. Cela traduit une chaîne de valeur IA en France faiblement intégrée. Cela vient pour l’essentiel d’un manque d’intégration dans les phases de la chaîne de l’innovation situées en aval.

La seconde singularité française est relative à la place importante de sa recherche publique qui contraste avec le retard affiché des grands groupes industriels français 

Le graphique 2 présente les principales organisations privées et publiques productrices de brevets IA.  L’aspect le plus saillant est l’absence de grands groupes français du classement mondial (le premier grand groupe Français, Thalès, se classe 37e au niveau mondial), conjointement à la présence significative des institutions publiques de recherche. Par exemple, le CNRS se classe 2e avec 891 brevets, le Commissariat à l’Énergie Atomique (CEA) et l’Institut Pasteur sont respectivement 4e et 5e, l’INSERM occupe la 7e place, l’INRIA la 8e et l’Institut Curie la 9e place. On compte donc six institutions françaises parmi les dix principaux organismes de recherche européens.  Aussi, la France se distingue par une forte présence de sa recherche publique dans la production d’innovation incorporant de l’IA.

Une analyse des réseaux de collaborations à partir des co-brevets, c’est-à-dire les brevets appartenant à plusieurs organisations, révèle notamment que les réseaux français apparaissent comme étant essentiellement intra-nationaux et faiblement ouverts à l’international et à la mixité institutionnelle. Ils s’opposent aux autres réseaux d’innovation américains, chinois, japonais ou encore allemands plus ouverts à la mixité institutionnelle et à l’international.

Que retenir de ce rapide tour d’horizon ? Au vu de la performance remarquable des institutions françaises de recherche publique et dans la mesure où l’IA est un domaine basé sur la science, il n’y a pas lieu d’être pessimiste. La base scientifique est avérée. Mais le retard affiché des grands groupes industriels français, relativement aux acteurs majeurs mondiaux, nous laisse perplexes. Nous craignons que la France ne devienne un laboratoire mondial de l’IA, située en amont des activités d’innovation proprement dites, supportant les coûts fixes et irrécouvrables liés à chaque microprojet, sans trouver le relais nécessaire au niveau local. En bref, notre crainte est que l’intelligence artificielle made in France se trouve à terme sans débouché national et devienne un exportateur technologique net, sans les effets en aval de captation de la valeur ajoutée et de création d’emplois.


[1] Le rapport de l’OCDE, Identifying and Measuring Developments in Artificial Intelligence: Making the Impossible Possible, (OCDE, 2020) en est une excellente illustration.




Pourquoi – et comment – pérenniser Next Generation EU

Frédéric Allemand, Jérôme Creel, Nicolas Leron, Sandrine Levasseur et Francesco Saraceno

L’instrument Next Generation EU (NGEU) a été créé pendant la pandémie afin de financer la relance et surtout d’assurer la capacité de résilience de l’Union européenne (UE). Depuis lors, avec la guerre en Ukraine et son lot de conséquences, les chocs qui frappent l’UE ne cessent de s’accumuler et ce, dans un contexte où il faut aussi accélérer la transition écologique et la digitalisation de l’économie. L’invasion de l’Ukraine par la Russie a remis les questions de défense au premier plan des préoccupations tandis que l’inflation donne lieu à des réactions hétérogènes des États membres, ce qui ne favorise pas la convergence économique, sans compter les resserrements monétaires qui déstabilisent certaines banques. Les subventions de l’administration Biden à l’industrie américaine ont tous les traits d’un nouvel épisode de guerre commerciale auquel la Commission européenne a répondu par un assouplissement temporaire des règles des aides d’États. Dans cet environnement empreint d’incertitudes et dans lequel les chocs se succèdent, l’idée de transformer NGEU d’instrument temporaire en instrument permanent a fait son chemin. Á titre d’exemple, le Commissaire européen P. Gentiloni évoque cette idée dès 2021 ; elle est mentionnée lors d’une conférence de l’Official Monetary and Financial Institutions Forum en 2022 ; elle figure en conclusion d’un article de Schramm et de Witte, publié dans Journal of Common Market Studies en 2022 ; et elle est évoquée publiquement par Christine Lagarde en 2022. Elle ne fait guère l’unanimité cependant : en Allemagne notamment, où après la décision favorable à NGEU de la Cour constitutionnelle du 6 décembre 2022, le ministre des Finances, Christian Lindner, rappelle que l’émission de dette commune (au cœur de NGEU) doit rester une « exception ». Le débat restant ouvert, nous avons évalué dans une étude récente pour la Fondation for European Progressive Studies (FEPS) la pertinence économique, mais aussi politique, et les difficultés techniques et juridiques que la mise en œuvre d’un instrument permanent de type NGEU engendrerait.



La mise en œuvre de NGEU a d’ores et déjà soulevé des questions délicates de coordination entre les États membres à propos de l’allocation des fonds envers les différentes priorités structurelles de la Commission (quelle part vers la transition écologique ? quelle part vers la digitalisation ?) et entre les pays eux-mêmes car la question du « juste retour » ne manque jamais de resurgir dans le cadre des négociations. À ces difficultés de coordination, la première partie de l’étude ajoute la question de la légitimité démocratique des politiques de l’UE lorsque des priorités supranationales limitent l’autonomie des parlements nationaux, à commencer par la politique budgétaire, « cœur matériel » de la démocratie. Le problème de la responsabilité démocratique n’est pas nouveau si l’on considère que les règles supranationales, telles que le Pacte de stabilité et de croissance, imposent des limites au pouvoir des parlements de « taxer et dépenser ». En fait, la logique intrinsèque de la coordination est de forcer le pouvoir politique à se conformer aux impératifs fonctionnels (macroéconomiques), ce qui produit inévitablement une forme de dépolitisation de la politique budgétaire et fiscale. La pérennisation de NGEU doit donc être vue comme une opportunité, celle de remédier à la dépolitisation des politiques de l’UE et de tendre vers une « Europe politique » en instaurant un échelon supranational à la mise en œuvre d’une politique budgétaire européenne.

Cette partie de l’étude rappelle aussi que si la mise en œuvre de NGEU a été d’une importance capitale pour stimuler la reprise post-pandémique, avec des résultats économiques encore incertains car les fonds n’ont été allouées que relativement récemment[1], elle révèle aussi un changement d’état d’esprit des décideurs politiques de l’UE. Pour la première fois, l’emprunt commun et un certain partage des risques sont devenus des caractéristiques d’un plan budgétaire européen. Il est cependant erroné de considérer, à ce stade, NGEU comme un moment « hamiltonien » ou comme l’acte fondateur d’une Europe fédérale : NGEU est limité dans sa portée et dans sa durée ; il ne reprend pas les dettes passées des États membres et il n’a pas créé de capacité de dépenses (d’investissements) communes. Et c’est peut-être bien là que réside sa principale faiblesse et sa principale voie d’amélioration. La pandémie et la réponse économique forte que lui ont apportée les États européens ont indiqué qu’ils pouvaient partager des objectifs communs et cruciaux : la relance, la résilience, la transition écologique et la digitalisation. Il manque cependant une capacité budgétaire centrale pour mieux relier les défis de long terme avec un instrument adapté à cet horizon. D’où l’idée de pérenniser NGEU.

En guise de préambule à une éventuelle pérennisation de NGEU, une autre partie de l’étude pose la question de savoir quelle serait la tâche principale confiée à un instrument budgétaire central permanent. Une réponse évidente est la fourniture et le financement des biens publics européens (définis au sens large pour englober les notions de sécurité et de protection de l’environnement) que les États membres peuvent ne pas fournir en quantité suffisante, en raison d’un manque de ressources et/ou d’externalités. Concernant la fourniture de biens publics, il faut rappeler que les préférences des citoyens sont assez homogènes au sein de l’UE et qu’il existe une demande croissante pour que certains d’entre eux soient fournis au niveau de l’UE. À titre d’exemple, 86 % des citoyens de l’UE sont en accord avec la réalisation d’investissements dans les énergies renouvelables menés au niveau de l’UE. Même la production d’équipements militaires par l’UE remporte de plus en plus l’adhésion des citoyens avec 69 % d’entre eux « d’accord ou tout à fait d’accord ». Une fourniture de biens publics au niveau européen plutôt que national permet en outre la réalisation d’économies d’échelle clairement palpables, par exemple, dans le domaine des infrastructures. Last but not the least, elle trouve une justification dans sa capacité à « faire l’Europe » par des actions concrètes et à renforcer le sentiment européen. Bien évidemment, le débat sur une capacité budgétaire centrale devra être mené parallèlement à celui sur la réforme du Pacte de stabilité et de croissance afin de garantir la création d’un espace budgétaire (ou de marges de manœuvre complémentaire) dans l’UE.

L’étude souligne alors qu’il existe peu d’options pour créer une capacité budgétaire centrale dans le cadre institutionnel actuel. Les traités définissent un cadre budgétaire (centré sur le cadre financier pluriannuel, CFP) pour l’UE qui lie les dépenses à la capacité de lever des ressources, limitant ainsi fortement, en temps normal, la capacité de lever de la dette. La création d’instruments financiers spéciaux et la décision de dépenser au-delà des plafonds du CFP sont explicitement liées à des circonstances exceptionnelles et ne peuvent constituer une solution pour la fourniture récurrente de biens publics. Le relèvement du plafond des ressources propres de 0,6 point, pour le porter à 2 % du RNB [2] a permis de garantir que les opérations d’emprunt d’un montant sans précédent respectent le principe constitutionnel d’équilibre budgétaire.

Cependant, cette augmentation n’a été approuvée qu’en raison de son caractère exceptionnel et temporaire, le plafond des ressources propres pour les paiements devant être ramené à 1,40 % du RNB dès lors que les fonds auront été remboursés et que les engagements auront cessé d’exister. Même si un financement pérenne devait être attribué à l’instrument NGEU, sa capacité d’intervention resterait limitée. Conformément à sa base juridique (article 122 TFUE), NGEU est un instrument de gestion de crise dont l’activation est liée à la survenance ou au risque de circonstances exceptionnelles. La législation européenne interdit, par principe, à l’UE d’utiliser des fonds empruntés sur les marchés des capitaux pour financer des dépenses opérationnelles.

L’étude examine d’autres dispositions juridiques qui pourraient contribuer au financement des biens publics mais quelle que soit la base juridique choisie, (a) l’UE ne dispose pas d’un instrument financier général polyvalent qu’elle pourrait activer, en plus du budget général, pour financer des actions et des projets sur une longue période ; et (b) l’UE ne peut pas accorder de fonds pour financer des actions en dehors de son domaine de compétence, c’est-à-dire se substituer aux États membres dans des domaines où ceux-ci conservent la compétence de leurs politiques. Par conséquent, la révision des traités ou la mise en place de nouveaux accords intergouvernementaux (sur le modèle du Mécanisme européen de stabilité) semble inévitable si l’on veut créer une capacité budgétaire centrale.

Partant de la seconde option, l’étude propose qu’une agence européenne de l’investissement public voie le jour, comme première étape vers la création d’une capacité budgétaire centrale. Cette agence aurait pour fonction de planifier des projets d’investissement et de les mettre en œuvre, en coopération avec les États membres. En raison de la législation européenne, l’agence n’aurait pas un contrôle total sur les choix stratégiques mais agirait principalement dans les limites fixées par les feuilles de route des institutions de l’UE. Néanmoins, elle aurait la capacité administrative de concevoir des projets d’investissement public qui font actuellement défaut à la Commission et elle pourrait se voir confier le contrôle de l’attribution des subventions, des lignes directrices techniques, du suivi de la conditionnalité, etc.

La dernière partie de l’étude rappelle cependant que même des progrès substantiels en matière de capacité budgétaire centrale ne devraient pas occulter la nécessité que des politiques budgétaires nationales soient elles aussi mises en œuvre et qu’une coordination étroite entre elles soit assurée. Alors que des pouvoirs croissants sont transférés au niveau européen en matière de biens publics, comme on peut le constater par exemple avec le Pacte vert européen et avec le ciblage des dépenses allouées au titre de NGEU vers le verdissement et la digitalisation, la question de la coordination des politiques des gouvernements nationaux entre eux et avec les politiques mises en œuvre au niveau central demeure. La coordination des politiques, qui limite nécessairement l’autonomie des parlements nationaux, soulève la question de la légitimité démocratique des politiques de l’UE et peut entraîner une forme de dépolitisation de la politique budgétaire. Cela deviendrait encore plus problématique si l’UE transférait, au niveau supranational, certaines des décisions concernant les biens publics à fournir et auprès de qui les financer. Pour éviter une telle déconnexion entre le renforcement macroéconomique européen autour des biens publics et la dimension démocratique de cette orientation, il ne faut sans doute rien de moins qu’un bond en avant dans la création d’une Europe politique à deux niveaux démocratiques avec une démocratie européenne authentique – car fondée sur un véritable pouvoir budgétaire parlementaire européen lui-même relié aux préférences des électeurs européens – mais pleinement articulée avec les démocraties nationales aux marges budgétaires recouvrées.


[1] L’incohérence entre la nécessité de relancer l’économie européenne après la pandémie et un versement très graduel des fonds est discutée par Creel (2020).

[2] RNB : Revenu national brut défini comme le PIB plus les revenus nets reçus de l’étranger au titre de la rémunération des salariés, de la propriété, des impôts et subventions nets sur la production.




Allemagne : un bouclier tarifaire trop tardif

par Céline Antonin

Un siècle après l’épisode traumatique d’hyperinflation qui l’a conduite à devenir le chantre de l’orthodoxie monétaire, l’Allemagne n’a pas échappé, à l’instar des autres pays européens, à la résurgence de l’inflation, notamment sur les prix des produits énergétiques. En 2022, elle affiche même un taux d’inflation moyen plus élevé de 1,7 point que son voisin français (6,9 % contre 5,2 %), ce qui s’explique par plusieurs facteurs. Citons d’abord les choix énergétiques de l’Allemagne, notamment la part du gaz naturel dans le mix énergétique allemand : en 2021, le gaz naturel représentait 26 % du mix énergétique en Allemagne, contre 15 % en France[1] ; par ailleurs, la part du nucléaire est dérisoire en Allemagne (6 %), contrairement à la France (41 %). En outre, la dépendance énergétique de l’Allemagne par rapport à la Russie était beaucoup plus forte qu’en France : en 2019, elle atteignait 24 % en Allemagne contre 8 % en France[2]. Enfin, la place du secteur industriel dans la valeur ajoutée explique que l’industrie allemande ait une consommation d’énergie deux fois plus forte que l’industrie française[3]. Par ailleurs, les choix de politique économique n’ont pas permis de ralentir la dynamique de l’inflation : contrairement à son voisin français qui a mis en œuvre dès octobre 2021 un mécanisme de plafonnement des prix de l’électricité et du gaz, à travers le bouclier tarifaire, l’Allemagne a privilégié les mesures d’aides directes aux ménages et aux entreprises. Or, certaines de ces mesures comme les suppléments d’allocations familiales, les chèques énergie versés aux étudiants, aux retraités ou aux salariés ont pu avoir un effet inflationniste. En revanche, la modération salariale est demeurée la norme et les salaires négociés sont restés assez contenus jusqu’en 2022.



Dans notre prévision pour 2023-2024 (voir fiche Allemagne), nous prévoyons un reflux lent et graduel de l’inflation, d’abord sous l’effet de la baisse du prix de l’énergie, accélérée par le bouclier tarifaire mis en place en mars 2023[4]. La hausse de la composante alimentaire perdrait également en intensité au cours de l’année 2023. En revanche, l’inflation sous-jacente devrait largement contribuer à la persistance de l’inflation en 2023 avec la hausse des salaires négociés. Au total, après un taux d’inflation de 6,9 % en 2022, nous prévoyons une hausse des prix à la consommation de 7,1 % pour 2023 et 3,6 % pour 2024. L’inflation élevée réduirait le revenu disponible des ménages et entraînerait une baisse des dépenses de consommation privée pour 2023. Ainsi, nous devrions observer un changement dans la nature de l’inflation : d’énergétique, puis alimentaire, elle deviendrait salariale, avant de régresser.

2023-2024 : de l’inflation énergétique à l’inflation alimentaire …

La première cause de la baisse de l’inflation en 2023 est la baisse du prix de l’énergie (graphique 1). Celle-ci s’explique d’abord par la baisse du prix du gaz sur le marché européen, mais également par les mesures d’encadrement des prix. Citons notamment la baisse de la TVA sur le gaz naturel de 19 % à 7 % (du 1er octobre 2022 au 31 mars 2024), l’aide d’urgence de décembre pour les ménages et PME[5] (Dezember-Abschlag) et surtout le bouclier tarifaire sur les prix du gaz et de l’électricité introduit du 1er mars 2023 au 30 avril 2024 (voir encadré). Si ce bouclier semble légitime pour contenir le risque de hausse des prix de l’énergie, il paraît être un rempart trop tardif, potentiellement caduque, alors que les prix du gaz et de l’électricité ont fortement baissé. D’ailleurs, les dépenses prévues pour ce bouclier, initialement plafonnées à 200 milliards d’euros, ont été revues largement à la baisse à la suite de la chute des prix de l’énergie. Selon Garnadt et al. (2023)[6], le bouclier sur le gaz représenterait 15 milliards d’euros en 2023 et 0,5 milliard d’euros en 2024. Quant au bouclier sur l’électricité, le Conseil des experts allemands l’évalue à 13 et 0,8 milliards d’euros en 2023 et 2024. Au total, le bouclier tarifaire représenterait environ 30 milliards d’euros sur 2023-2024[7]. Depuis décembre 2022, la contribution de la composante alimentaire à l’inflation a en revanche dépassé celle de la composante énergétique. La contribution de l’alimentaire devrait néanmoins régresser au cours de l’année 2023. Au total, l’IPC devrait croître de 7,1 % en 2023 et 3,6 % en 2024.

___________________________________________________________________________________________

Encadré : Fonctionnement du bouclier tarifaire sur le gaz et l’électricité (Strom- und Gaspreisbremse)

Du 1er mars 2023 au 30 avril 2024 au moins, le prix du gaz et du chauffage urbain est plafonné (à 12 centimes d’euros TTC pour le gaz, et 9,5 centimes d’euros pour le chauffage urbain) pour les ménages et les petites entreprises – consommant moins de 1,5 million de kWh par an –, sur la base d’un quota de consommation égal à 80 % de la consommation passée. Au-delà de ce quota, le prix libre du marché s’applique. Les 25 000 entreprises clientes industrielles, quant à elles, recevront 70 % du volume de 2021 à 7 centimes d’euros hors taxes à partir de janvier 2023.

Le bouclier sur l’électricité fonctionne de façon comparable :  les ménages et petites entreprises – consommant moins de 30 000 kWh/an – paient un maximum de 40 cents bruts par kilowattheure pour 80 % de leur électricité. Le prix du contrat régulier est facturé pour les 20 % restants. Pour les clients industriels, le plafond est fixé à 13 centimes pour 70 % de la consommation prévue.

______________________________________________________________________________________________

… et à l’inflation salariale : la fin de la modération ?

En 2022, les salaires négociés n’ont augmenté que de 2,7% pour 19,6 millions de salariés couverts par des conventions de branches[8]. Ce chiffre a pu surprendre par sa faiblesse, dans un contexte fortement inflationniste. Comment l’expliquer ? Rappelons d’abord que, contrairement à la France où le rythme de la négociation salariale est annuel, la fréquence des accords salariaux n’est pas dictée par la loi en Allemagne. Les accords courent souvent sur les deux années suivantes. La faiblesse de la croissance des salaires s’explique par plusieurs facteurs. Premièrement, une partie des augmentations salariales pour 2022 a été prévue par des négociations salariales de 2021 ou antérieures – qui ont été négociées dans un contexte beaucoup moins inflationniste. Les négociations salariales antérieures à 2022 concernent 12 millions de salariés et actent une hausse de 2,6 % sur l’année 2022 (graphique 2). Deuxièmement, il y a eu que peu de branches qui ont renégocié les salaires en 2022 : les négociations n’ont concerné que 7,6 millions de salariés. Parmi ces 7,6 millions de salariés, l’essentiel (3,6 millions) appartient à la branche industrie électro-métallique qui n’a acté qu’une modeste revalorisation de 1,6 %. En dehors cette branche, sur les 4 millions de salariés restants, la hausse des salaires négociés au cours de l’année 2022 aurait été de 4,1% (sur la base de 2,9% en moyenne pour les 7,6 millions concernés[9]). Notons que plusieurs négociations collectives qui ont eu lieu en 2022 prévoient des augmentations mais décalées à 2023, par exemple dans l’industrie électro-métallique.

En prévision, nous anticipons la fin de cette modération salariale. L’accord dans l’industrie métallurgique et électrique prévoit une augmentation de 7,2 % pour 2023 et de 4,1 % pour 2024. En 2023, les accords salariaux devront être renégociés pour près de 11 millions de salariés, notamment dans la fonction publique (2,8 millions de salariés), le travail temporaire (735 000), le commerce de détail (2,6 millions de salariés) et le commerce de gros (1,1 millions de salariés). Nous prévoyons notamment des augmentations salariales notables pour les négociations dans le commerce de détail et de gros qui doivent avoir lieu au deuxième trimestre 2023. Les salaires effectifs devraient continuer à augmenter plus rapidement que les salaires négociés en raison de la baisse du chômage partiel – qui affecte les salaires effectivement versés, mais pas les salaires conventionnels. Au total, nous anticipons une augmentation des salaires de 6,1 % en 2023 et de 5,2 % en 2024. Outre le taux d’inflation élevé, la pénurie de main-d’œuvre contribuerait à l’augmentation des salaires[10]. Par conséquent, alors que l’Allemagne avait connu une forte baisse de salaire réel entre 2019 et 2022 (-6,4 %), la situation devrait s’inverser d’ici 2024 et l’Allemagne dépasserait la France en termes de progression salariale réelle entre 2022 et 2024 (graphique 3).

Au total, l’inflation sous-jacente devrait rester élevée au cours de l’année 2023, autour de 5,8 %, avant de décroître en 2024. La baisse progressive de l’inflation sous-jacente devrait être principalement due à la diminution des pressions inflationnistes du côté des biens, indirectement liée à la baisse des prix de l’énergie. En outre, bien que les salaires réels progressent fortement en 2024, nous faisons l’hypothèse d’une compression des marges des entreprises qui permettront de contenir la hausse des prix.


[1] Source : Eurostat, Énergie disponible brute par produit, tableau TEN00121.

[2] Sur le mode de calcul de l’indice de dépendance énergétique, voir C. Antonin, « Dépendance commerciale UE-Russie : les liaisons dangereuses », Blog de l’OFCE, 4 mars 2022.

[3] Source : Eurostat, consommation finale d´énergie par secteur, tableau TEN00124, chiffres de 2021.

[4] Pour les PME, le frein aux prix sera ensuite appliqué rétroactivement aux mois de janvier et février 2023. Pour les clients industriels du gaz et du chauffage, la réduction de prix s’applique dès janvier 2023.

[5] Afin de soulager les ménages jusqu’à l’introduction du bouclier tarifaire, l’État allemand prend à sa charge la facture mensuelle de gaz et de chauffage urbain en décembre 2022 pour les ménages et les PME.

[6] Garnadt N., L. Nöh, L. Salzmann et C. Schaffranka (2023), « Eine Abschätzung der Auswirkungen der Gaspreisbremse auf Inflation und fiskalische Kosten », SVR-Arbeitspapier, Sachverständigenrat zur Begutachtung der Gesamtwirtschaftlichen Entwicklung, Wiesbaden, Arbeitspapier 01/2023.

[7] Ces estimations reposent sur un prix du gaz compris dans une fourchette de 50-60 €/MWh. Nous faisons pour notre part une hypothèse un peu plus élevée sur le prix du gaz TTF (75 €/MWh en 2023 et 70 €/MWh en 2024). Le chiffre de 30 milliards pour le bouclier tarifaire représente donc une borne « basse » pour le chiffrage du bouclier tarifaire.

[8] En 2021, 52 % des salariés sont couverts par une convention de branche (dont 34 % par une convention de branche et un accord d’entreprise) et 8 % par des accords d’entreprise sans convention de branche (source : IAB, 2023).

[9] Ce chiffre correspond à la moyenne des augmentations de salaires négociés pour 2022 :

(3,6 x 1,6% + 4 x 4,1%)/7,6 = 2,9%.

[10] Remarquons néanmoins que, malgré les mesures budgétaires de soutien aux ménages liées à l’énergie et la hausse des salaires, le revenu disponible réel des ménages reculerait de 0,7 % en 2023, rongé par l’inflation.