Logement locatif : le CAE veut changer d’ALUR …

Par Pierre Madec et Henri Sterdyniak

Le 24 octobre dernier, le conseil d’analyse économique (CAE) a publié une note proposant une nouvelle politique du logement locatif en France. Cette note remet en question un certain nombre de mesures gouvernementales figurant dans la loi ALUR, actuellement en discussion au Parlement, comme l’encadrement des loyers et la garantie universelle des loyers (GUL)[1]. Ces critiques sont-elles justifiées ?

En fait, les auteurs reconnaissent que le marché du logement est spécifique, qu’il faut le réguler, que l’Etat doit construire des logements sociaux et aider les familles pauvres à se loger. Aussi, leurs divergences avec la politique qu’entend suivre le gouvernement actuel ne peuvent-elles être que limitées, et concernent les moyens plutôt que les objectifs. Le libéralisme ne fonctionne pas en matière de logement. Il faut mettre en place des dispositifs d’intervention publique, qui doivent viser, nous le verrons, des objectifs contradictoires, dispositifs dont la structure est obligatoirement ouverte à la discussion.

Le parc locatif privé : cogestion et aléa moral 

Concernant le parc locatif privé, les auteurs proposent essentiellement l’instauration d’un système de flexi-sécurité du logement, inspiré de celui préconisé pour le marché du travail : diversification et libéralisation des baux, nouveaux droits pour le bailleur, plus grande flexibilité des conditions de résiliation de bail, ou encore mise en place d’un système de cogestion du marché locatif privé autour d’une « régie du logement » dont les prérogatives s’étendraient de la fixation des loyers « de référence » à la gestion des baux. Cette « régie », gérée paritairement par les locataires et les propriétaires, jouerait un rôle de médiateur lors des conflits opposant locataires et propriétaires à l’image des prud’hommes pour les conflits du travail.

L’argument principal utilisé par les auteurs pour condamner un dispositif tel que la GUL est qu’elle créerait des problèmes d’aléa moral trop importants, c’est-à-dire que l’assurance inciterait les personnes couvertes à prendre « trop de risques ». En l’espèce, le locataire, assuré de voir ses défauts de paiement pris en charge par le fond, se soucierait moins de verser ses loyers ; il pourrait porter son choix sur un logement plus cher que ses besoins réels. Le propriétaire serait moins soucieux de la sélection de son locataire. Les auteurs utilisent également l’argument de l’aléa moral pour défendre la mise en place de baux flexibles : cela permettrait selon eux de lutter contre la dégradation des logements ou encore les conflits de voisinage.

L’idée du locataire systématiquement « mauvais payeur volontaire » et prêt à dégrader le logement qu’il loue nous paraît excessive et réductrice. Or, cette idée est assez largement développée par les auteurs. Ceux-ci semblent oublier que la GUL couvrira surtout des locataires qui ne peuvent plus payer leurs loyers en raison de difficultés financières (chômage, divorce …).

Cette garantie est avant tout une protection nouvelle pour le propriétaire. Protection financée à part égale entre bailleurs et locataires au travers d’un système de mutualisation. En cas d’impayé de loyer, le propriétaire sera directement remboursé par le fond. Ce dernier examinera ensuite la situation du locataire et procédera soit à un recouvrement forcé soit à une prise en charge personnalisée en cas d’impossibilité de paiement.

La GUL devrait permettre aux propriétaires de louer un logement à des personnes qui se trouvent dans des situations fragiles (travailleurs en contrat précaire, étudiants issus de familles modestes), sans que celles-ci aient à rechercher des cautions. Les propriétaires seraient moins incités à rechercher des locataires sûrs (fonctionnaires, étudiants issus de familles aisées, salariés des grandes entreprises). L’Etat est pleinement dans son rôle en couvrant un risque social, accru par la crise et la précarisation des emplois. Cela ne vaut-il pas le risque fantasmé d’augmentation de l’aléa moral ?

La question du bail pose une question de fond. Faut-il encourager le développement des propriétaires bailleurs individuels qui génère obligatoirement des problèmes délicats entre le souci du propriétaire de disposer librement de son bien et d’avoir le maximum de sureté quant au paiement du loyer, celui des locataires d’avoir une sécurité de maintien dans les lieux et l’exigence de droit au logement ?

Un ménage à revenus faibles ou irréguliers, plus fragile, doit aussi pouvoir se loger dans le parc privé. Aussi, il peut paraître préférable d’inciter soit les investisseurs institutionnels à investir dans ce domaine ou les ménages à utiliser plutôt des instruments de placement collectif dans la pierre et de mettre en place des dispositifs, comme le GUL, qui permettent de traiter collectivement la question des non-paiements de loyer.

Le logement est loin d’être un bien ordinaire. Se loger est, et les auteurs le soulignent, avant tout un besoin essentiel, un droit fondamental. La précarisation massive de ce dernier à travers la mise en place d’un système de baux libéralisés ne peut être la solution. Au contraire, les auteurs se nourrissant du modèle allemand, l’introduction de baux à durée indéterminée (baux de référence en Allemagne) constituerait une avancée majeure en termes de sécurisation du locataire[2].

Encadrement contre loi du marché

Concernant l’encadrement des loyers, les auteurs s’appuient sur un certain nombre d’études visant à démontrer l’existence d’une corrélation entre l’état de dégradation du parc locatif et les mesures d’encadrement des loyers. Or, dans la loi ALUR, des dispositifs destinés à la prise en compte de la réalisation de travaux existent. Certes, un risque de détérioration du parc persiste, mais une fois ce dernier explicité, on doit mentionner l’existence, elle aussi probable, d’une montée en gamme du parc due justement au mécanisme de prise en compte des travaux.

Les auteurs développent également l’idée selon laquelle les mesures d’encadrement conduiraient à une baisse significative de la mobilité résidentielle. Si ce risque est réel pour les dispositifs visant à encadrer les loyers en cours de bail et non lors de la relocation (cause principale du creusement des inégalités de loyers observé en France depuis la loi de 1989), le dispositif d’encadrement présent dans la loi ALUR a, au contraire, pour objectif de conduire à une convergence des loyers[3]. Cette convergence, bien que modeste, compte tenu de l’écart important encore autorisé (plus de 40 %), va plutôt dans le sens d’une meilleure mobilité.

En réalité, le risque le plus important, soulevé par les auteurs, est le risque de diminution du nombre de logements offerts à la location. Bien qu’il semble peu probable que les bailleurs déjà sur le marché retirent massivement leurs biens de la location[4], la mesure d’encadrement peut désinciter les nouveaux investisseurs sur le marché locatif compte tenu de la baisse induite des taux de rendement. Ceci aggraverait encore davantage le déséquilibre offre/demande au sein des zones tendues. Dans les faits, cela paraît peu probable. Même en cas de baisse significative du nombre de nouveaux investisseurs, ceux déjà présents sur le marché de l’ancien, compte tenu des conditions de bail (et au grand dam des auteurs), ne pourront pas vendre facilement leur bien, sauf à le vendre à un nouvel investisseur qui au vu de la baisse des taux de rendement réclamera une baisse du prix. Les dispositifs d’incitation fiscale (type Duflot) actuellement en vigueur sur le marché du logement neuf laissent à penser que les bailleurs qui y investissent ne seront que peu touchés par l’encadrement.

Certains investisseurs pourraient cependant délaisser en effet la construction de logements neufs, ce qui, à court terme, jouerait plutôt en faveur d’une baisse des prix de l’immobilier[5], ce qui encouragerait l’accession à la propriété et la baisse du prix du foncier. Il faudrait cependant que le secteur public soit prêt à prendre la relève des investisseurs privés.

Près d’un ménage sur trois du 1er quartile de revenu (les 25 % les plus pauvres) est locataire du parc privé et subi un taux d’effort médian net des aides au logement de 33 %, en hausse de près de 10 points depuis 1996. Encadrer les loyers est avant tout une protection pour ces ménages modestes, ménages qui compte tenu de l’engorgement du parc social et du durcissement des conditions d’accès à la propriété, n’ont d’autres choix que de se loger dans le parc locatif privé.

La stratégie proposée par la loi Duflot  consistant à « mettre en place un certain encadrement des loyers pour réduire les comportements prédateurs des propriétaires. Ne pas chercher à attirer des investisseurs par des loyers exorbitants et les anticipations de hausse du prix de l’immobilier » ne nous semble pas illégitime, si elle s’accompagne effectivement d’un effort en faveur du logement social.

Les tensions sur le marché du logement (où l’offre et la demande sont rigides) permettent de fortes hausses de loyers, qui aboutissent à des transferts injustifiés entre propriétaires et locataires. Ces transferts pèsent sur le pouvoir d’achat des plus pauvres, sur l’indice des prix, sur la compétitivité… En sens inverse, ces hausses peuvent stimuler la construction de logements neufs via la hausse de la valeur du foncier, mais cet effet est faible et lent (compte tenu des contraintes du foncier). L’encadrement peut contribuer à mettre un coup d’arrêt aux hausses de loyer, même s’il nuit quelque peu à l’incitation à l’investissement privé dans le logement. Il ne peut être écarté a priori.

Logement social malmené

Bien que le constat des auteurs est juste – le logement social ne joue pas son plein rôle, les systèmes de construction et d’attribution sont complexes et inefficaces – les solutions qu’ils proposent, et leur cohérence, nous le semblent moins.

Le débat sur le rôle et la place du logement social en France est ancien. Faut-il le réserver aux ménages pauvres et ainsi renoncer aux objectifs de mixité sociale ? Faut-il pour ce faire diminuer les plafonds d’éligibilité alors qu’aujourd’hui plus de 60 % de la population peut prétendre à un logement social ? Le logement social doit-il être rentable ?  L’offre de logement social est-elle suffisante ?

L’idée défendue par les auteurs, selon laquelle l’Etat, à travers les prêts aidés aux organismes HLM, ne doit prendre en charge que le logement des ménages les plus pauvres, non rentable par nature, et doit laisser à la concurrence (promoteurs et investisseurs privés) le logement des classes populaires et moyennes, est critiquable, notamment en ces temps de crise économique. Il faut au contraire augmenter la part des logements sociaux mais aussi des logements intermédiaires aux loyers « modérés» construits avec financement public pour loger les classes populaires à des loyers raisonnables et faire baisser les tensions dans les zones critiques.

L’idée des auteurs selon laquelle le logement social ne peut être un droit accordé ad vitam aeternam peut paraître justifiée. En 2006, selon l’INSEE, plus d’un locataire du parc social sur 10 appartenait au cinquième quintile de revenu (20 % les plus riches). Sauf à considérer que le parc social doit être, en vertu du principe de mixité sociale, ouvert à tous, les mécanismes visant à inciter ces ménages à quitter le parc social pour les diriger vers le parc privé ou l’accession doivent être renforcés, les surloyers appliqués actuellement n’étant pas suffisamment efficaces. Mais il faut tenir compte de l’âge des occupants et de la disponibilité à proximité des logements à loyers « libres ».

Les auteurs proposent également, pour le logement des classes populaires et moyennes (c’est-à-dire les opérations « rentables ») de mettre en concurrence des structures privées (promoteurs, constructeurs privés, …). Une fois la durée d’amortissement du prêt de la Caisse des dépôts et consignations (CDC) expirée, le logement ainsi construit pourrait changer de statut et basculer soit dans le parc privé soit être vendu. Cette idée laisse à penser que la pénurie de logements sociaux serait la conséquence d’un manque de fonds disponibles. Or, grâce aux montants déposés sur les livrets A, l’argent ne manque pas. Les freins à la construction de logement se trouvent ailleurs (manque de volonté politique, pénurie de foncier, …).

Bien qu’il soit nécessaire de lutter contre la ségrégation urbaine et que c’est effectivement en « disséminant les ménages défavorisés dans l’ensemble du tissu urbain » que cet objectif peut être rempli, les propositions des auteurs de la note du CAE sont peu réalistes. L’indice de ségrégation spatial proposé (voir encadré 10 du document de travail) amènerait à ne plus construire de logement sociaux là où la concentration de ces derniers est déjà importante. Or, compte tenu des contraintes foncières dans les zones tendues, ceci n’est pas tenable. L’objectif de lutte contre la ségrégation ne peut pas être prioritaire mais complémentaire de l’objectif de construction.

Un financement public conditionné de façon rigide à la valeur d’un ou deux indicateurs, même les plus transparents, comme le proposent les auteurs, serait extrêmement complexe à mettre en œuvre. La loi SRU fixant des objectifs identiques à des communes aux caractéristiques très disparates doit être aménagée. Il faut construire du logement social selon la demande et les besoins. Or, actuellement, il n’y a pas d’adéquation entre offre et demande et ce même dans les zones les moins tendues (logements trop grands ou trop petits, trop vieux, …). Selon l’INSEE, 14 % des locataires du parc social sont ainsi en situation de sur-occupation (soit le double de la proportion observée dans le parc privé). Non seulement l’entrée dans le parc social est difficile mais la mobilité au sein de ce parc l’est tout autant. Il faut donc construire massivement des logements sociaux non seulement pour accueillir des populations nouvelles mais aussi pour loger dans de meilleures conditions les populations y résidant actuellement.

Faut-il dé-municipaliser la question du logement ? Laisser aux seules municipalités le pouvoir de décision (et d’action) sur les politiques de la ville est une erreur, certains pouvant être incités à préférer céder les terrains disponibles à des promoteurs privés qu’à des organismes d’HLM, que ce soit pour des raisons directement financières ou pour choisir d’attirer une population relativement aisée, sans problèmes sociaux. Ainsi, la politique du logement nécessite de fortes incitations à la construction de logements sociaux, comme des aides spécifiques aux communes où ils sont implantés, comme des contraintes légales et une imposition spécifique compensatrice pesant sur les communes qui n’ont pas de logement sociaux. La loi SRU est nécessaire.

Notons que les propositions allant dans ce sens sont difficiles à faire adopter au niveau politique. Ainsi, la mesure visant à offrir aux intercommunalités le pouvoir de décision concernant notamment le Plan local d’urbanisme (PLU), disposition présente dans la loi ALUR, a été en grande partie rejeté par le Sénat, avec l’appui de la ministre du Logement[6]. De même, l’Union sociale pour l’habitat, tout en déplorant le manque de mobilité au sein du parc social, s’oppose régulièrement à toutes modifications importantes des processus d’attribution pouvant aller dans le sens d’un regain de mobilité, chaque organisme voulant garder ses critères propres.

Loyers et aides au logement entre imposition et imputation

Dans la note du CAE, la prise en compte des dépenses de logement par la fiscalité fait l’objet de propositions contestables. Certes, nous sommes d’accord avec le point de départ : il serait souhaitable d’aboutir à une certaine neutralité fiscale entre les revenus du capital financier et les loyers implicites. C’est nécessaire du point de vue de l’efficacité économique (ne pas trop favoriser le placement en logement) comme de la justice sociale (à revenus imposables égaux, un propriétaire et un locataire n’ont pas le même niveau de vie). Mais, selon nous, ceci ne peut se faire qu’en taxant effectivement les loyers implicites. Cette réforme est délicate aujourd’hui, car les impôts ont déjà beaucoup augmenté. On ne peut plus guère introduire un nouvel impôt. Elle devrait donc s’accompagner d’une translation vers le haut des tranches du barème, de sorte que, si les propriétaires payent plus, les locataires payent moins. Par ailleurs, elle risque de détourner certains ménages de la construction de logement ; son produit doit donc être utilisé en partie pour la construction de logement, ce qui est contradictoire avec la proposition précédente de l’utiliser pour réduire les impôts des locataires. Elle ne peut donc être introduite que très progressivement. Il faudrait d’abord revaloriser les bases de la taxe foncière. Puis, utiliser cette base (dont les propriétaires accédant pourraient déduire les charges d’emprunt) pour taxer les valeurs locatives à la CSG ou à l’IR (avec un certain abattement).

Craignant l’impopularité de la mesure, les auteurs proposent que les locataires puissent déduire leur loyer de leur revenu imposable (avec un plafond relativement élevé de l’ordre de 1 000 euros par mois). Cette proposition n’est pas acceptable :

– elle est arbitraire : pourquoi ne pas déduire aussi, toujours avec des plafonds, ses dépenses alimentaires (on ne peut vivre sans manger), ses dépenses de vêtements, de transports, de téléphone portable (devenus indispensables aujourd’hui). C’est sans fin. Le barème de l’IR prend déjà en compte le fait qu’un niveau minimum de revenu est indispensable (pour un couple avec 2 enfants, l’imposition ne commence qu’au-delà d’un revenu salarial de 2 200 euros par mois). La mesure favoriserait les dépenses de logement au détriment des autres dépenses, ce qui n’a guère de justifications ;

– l’économie d’impôt ainsi réalisée serait nulle pour les personnes non-imposables, faible pour les personnes juste à la limite de l’imposition : une famille de deux enfants dont le revenu est de 3 000 euros par mois et 600 euros de charges de loyer paierait 700 euros d’impôt de moins ; une famille aisée imposée au taux marginal de 45 % pourrait économiser 5 400 euros au titre de l’impôt, soit 450 euros par mois, c’est-à-dire plus que les allocations logement de la plupart des familles pauvres ;

– la mesure serait très coûteuse. Les auteurs ne nous donnent pas une estimation précise, mais réduire de 10 000 euros, le revenu imposable de 40 % des 18 millions de ménages imposables en France (la proportion des locataires) pourrait réduire de 14 milliards le produit de l’IR. En fait, ceci devrait obligatoirement être compensé par une translation vers le bas des tranches de l’impôt. Au bilan, là-aussi, si les locataires payaient moins, les propriétaires paieraient plus. Reste que la mesure serait moins efficace du point de vue économique que la taxation des loyers implicites, puisqu’elle introduirait un biais en faveur des dépenses de logement et qu’elle ne tiendrait pas compte de la valeur du logement occupé.

Les auteurs proposent d’intégrer l’allocation-logement dans l’IR et de faire gérer l’ensemble par l’administration fiscale, qui serait chargée de la mise en cohérence de la politique redistributive en direction des bas revenus. Certes, le système actuel d’aides au logement est perfectible, mais une fois encore leur analyse est partielle, n’intègre pas la totalité des aides dont bénéficient les plus pauvres (RSA socle, RSA activité et PPE). Ils oublient que l’aide aux personnes à bas revenus nécessite un suivi personnalisé, en temps réel, sur une base mensuelle ou trimestrielle que l’administration fiscale est incapable d’assurer. En fait, ils aboutissent à un système qui n’est guère simplifié : l’administration fiscale déterminerait l’aide au logement des ménages non-imposés que la CAF (Caisse d’Allocations familiales) verserait mensuellement et qui serait régularisé par l’administration fiscale l’année suivante. Mais il n’est pas dit si la même formule s’appliquerait au RSA. Pour les personnes imposées, l’aide serait gérée par l’administration fiscale. Les auteurs nous disent « l’aide ne pourrait être inférieure à l’allocation-logement actuelle », mais leur proposition augmenterait fortement le nombre de ménages non-imposés pour lequel il faudra comparer le gain en impôt et l’allocation ancienne formule. Ce n’est pas gérable. Certes, il serait souhaitable de simplifier le calcul de l’allocation-logement, de mieux l’intégrer avec le RSA. Ce sera un élément de la réforme nécessaire du RSA que le gouvernement devrait engager (voir rapport Sirugue et sa critique par Guillaume Allègre), mais l’ensemble doit continuer à être gérer par ceux qui savent le faire, les CAF et non l’administration fiscale.

Le lecteur intéressé par les problématiques liées au logement pourra consulter la Revue de l’OFCE « Ville & Logement », n°128, 2013.


[1] Trannoy A. et E. Wasmer, « La politique du logement locatif », Note du CAE, n°10, octobre 2013 et document de travail associé.

[2] Rappelons que le marché allemand est bien différent du marché français (majorité de locataires, peu de tensions démographiques, …) et que ses règles ne peuvent donc y être transposées.

[3] Actuellement, en région parisienne et plus généralement dans l’ensemble des zones dites tendues, les différences de loyers entre ceux ayant emménagé dans l’année et les locataires présents depuis plus de 10 ans dans leur logement est supérieur à 30 % (38 % pour Paris) (OLAP, 2013)

[4] En effet, les investisseurs « anciens » ont potentiellement des taux de rendement supérieurs à ceux des « nouveaux » investisseurs.

[5] D’autant que le nombre de nouveaux ménages a tendance à baisser (Jacquot, 2012, « La demande potentielle de logements à l’horizon 2030 », Observation et statistiques, N°135, Commissariat au Développement Durable).

[6] Un amendement accordant une faible minorité de blocage aux communes lors des modifications de PLU (25 % des communes et 10 % des habitants) a été adopté au Sénat le vendredi 25 octobre. Amendement réduisant de fait le pouvoir des intercommunalités dans ce domaine.




Pas de surprise du côté de la Fed*

par Christine Rifflart

Sans grande surprise, lors de sa réunion des 29 et 30 octobre, le Comité de politique monétaire de la Réserve fédérale des Etats-Unis a décidé de maintenir ses mesures non conventionnelles et de laisser inchangé son taux des fonds fédéraux. Depuis la fin de l’année 2012, la Réserve fédérale procède en effet à des achats massifs de titres (obligations publiques et titres de dette hypothécaire) au rythme de 85 milliards de dollars par mois. L’objectif est de faire pression sur les taux longs et soutenir l’activité, y compris sur le marché immobilier.

Par ailleurs, la Réserve fédérale, engagée dans une stratégie de transparence et de communication qui vise à ancrer les anticipations des investisseurs, n’a fait que confirmer le maintien du taux entre 0 et 0,25 % aussi longtemps que le taux de chômage sera supérieur à 6,5 %, que l’inflation anticipée à l’horizon d’ 1 à 2 ans ne sera pas supérieure d’un demi-point à l’objectif d’inflation de long terme, fixé à 2 %, et que les anticipations d’inflation de long terme resteront stables. Selon nos prévisions d’octobre (voir Etats-Unis : la croissance plafonnée), le taux de chômage, de 7,2 % en septembre pourrait atteindre 6,9 % fin 2014. Enfin, l’inflation, à 1,5 % au troisième trimestre 2013, ne dépasserait pas 1,8 % en 2014. Dans ces conditions, aucune hausse n’est attendue avant le deuxième semestre 2015. La politique restera donc particulièrement accommodante.

Les incertitudes portaient davantage sur le retrait effectif des mesures non conventionnelles qui maintiennent les taux longs à des niveaux artificiellement bas. Annoncé en mai dernier, l’arrêt ou la réduction de ces mesures est attendu par les marchés, ces mesures n’ayant pas vocation à durer. Entre mai et septembre 2013, les investisseurs privés ou publics étrangers avaient anticipé le début du retrait et s’étaient défaussés d’une partie de leurs titres. Cet afflux de titres avait fait chuter les prix et entraîné une hausse d’un point des taux longs publics en quelques semaines. Mais la fragilité de la croissance, l’insuffisance des créations d’emploi et surtout l’exercice de communication dans lequel se sont lancées les Banques centrales pour rassurer les marchés financiers ont éloigné au fil des mois, la date d’application de ce retrait des achats. Les taux longs ont à nouveau baissé, et encore plus ces dernières semaines après la crise budgétaire d’octobre.

Si, rétrospectivement, il apparaît que l’anticipation d’un retrait des mesures non conventionnelles était prématurée, il n’en demeure pas moins que la question du timing se pose. Dans son communiqué, le Comité précise que la décision dépendra des perspectives économiques tout autant que de l’évaluation coût / bénéfice du programme. Or, le paysage économique ne devrait pas s’améliorer dans les prochains mois. Si le Congrès parvient à un accord budgétaire avant le 13 décembre, celui-ci se fera assurément sur la base de coupes dans les dépenses publiques. Ce nouveau choc budgétaire viendra freiner encore la croissance et pénaliser davantage le marché du travail. L’émission de nouveaux titres de dette, contrainte en 2013 par le plafond légal de la dette, progresserait alors très lentement en 2014 du fait des ajustements budgétaires. Face à cette modération de l’offre de titres, la Réserve fédérale pourrait réduire ses achats au profit des autres investisseurs. L’équilibre sur le marché des titres pourrait alors être maintenu sans baisse brutale du prix des actifs.

Cette normalisation des instruments de politique monétaire ne devrait pas tarder. Mais elle n’est pas sans risque car une brusque hausse des taux longs n’est pas exclue. Les marchés sont volatiles et l’épisode des mois de mai et juin l’a rappelé. Mais une grande partie du mouvement est déjà intégré par les marchés. La Réserve fédérale devra donc amplifier sa stratégie de communication (en annonçant à l’avance par exemple la date et l’ampleur du retrait) si elle veut réussir le difficile exercice d’équilibriste de maintien d’une politique monétaire très accommodante tout en levant progressivement ses mesures exceptionnelles de bas taux d’intérêt. On fait l’hypothèse que l’exercice sera réussi. Les taux longs publics de 2,7 % au troisième trimestre 2013, ne devraient pas dépasser 3,5 % à la fin de 2014.

________

*Ce texte s’appuie sur l’étude « Politique monétaire : est ce le début de la fin ? » à paraitre prochainement dans les perspectives 2013-2014 de l’OFCE pour l’économie mondiale.




Les énergéticiens voient rouge avec le vert

par Sarah Guillou et Evens Salies [1]

 

Le marché commun de l’énergie fait-il la part trop belle aux sources d’énergies renouvelables (SER) ? C’est ce que pensent les neuf énergéticiens auditionnés au Parlement européen en septembre dernier. Selon eux, atteindre 20% d’énergie d’origine renouvelable dans la consommation finale d’énergie de l’UE d’ici 2020 aurait des répercussions négatives sur le secteur de l’énergie électrique : détérioration des résultats financiers des énergéticiens et de la sécurité d’approvisionnement en électricité. On ne peut nier que depuis la fin des années 1990, la politique de l’UE en faveur des SER est très active dans ce secteur. Les instruments suggérés par la Commission européenne (CE) aux Etats membres pour atteindre l’objectif des 20% sont nombreux (voir la Directive 2009/28/CE) : tarifs d’achat garantis de l’électricité produite à partir de SER, crédit d’impôt, … Aussi, en 2011, l’ensemble de ces mesures a-t-il permis à l’UE-27 d’atteindre 22% d’électricité produite à partir de SER, hydroélectricité incluse (Eurelectric, 2012)[2].

En quoi cette politique porte-t-elle préjudice aux producteurs historiques et à la sécurité d’approvisionnement ? Rappelons quelques faits stylisés de la consommation et du pilotage de la production d’électricité. La consommation est en moyenne plus faible la nuit (période dite de « base ») qu’en journée où elle passe par un ou deux pics (périodes appelées « pointes »). L’électricité n’étant pas stockable, le moyen le moins coûteux de répondre au passage base-pointes est d’utiliser les centrales selon leur « ordre de mérite ». Un producteur faisant appel à plusieurs sources d’énergie les sollicite ainsi de la moins flexible (démarrage lent, coût marginal faible) à la plus flexible (démarrage rapide, coût marginal élevé). En théorie, l’empilement est/était le suivant : nucléaire-charbon pour la base, nucléaire-charbon-gaz en pointe[3]. C’est durant les pointes, où les prix de gros peuvent s’envoler, que les producteurs gagnent le plus d’argent. De son côté, la production des centrales à SER est contingente aux aléas météorologiques (« l’intermittence ») : ces centrales ne produisent que lorsque la ressource primaire associée (vent, soleil, etc.) est suffisante ; elles sont alors prioritaires pour satisfaire la consommation d’électricité.

L’intégration des SER dans le parc de production modifie l’ordre de mérite. L’empilement précédent devient éolien-nucléaire-charbon pour la base, éolien-nucléaire-charbon-gaz en pointe ; du vent est donc substitué à un peu d’uranium, de charbon et de gaz. Sachant que le coût marginal de production des centrales à SER est proche de zéro, leur intégration, pourtant minime dans le mix énergétique, fait baisser le prix moyen sur les marchés de gros. Par conséquent, avec l’intégration des SER, les centrales à énergies fossiles sont moins bien rémunérées. De leur côté, les centrales à SER bénéficient toujours d’un tarif d’achat garanti (en France, 8,2 c€/kWh pour l’éolien, entre 8 et 32 c€/kWh pour le photovoltaïque, …)[4]. Le manque à gagner est plus grand durant les périodes de pointe de consommation. Les producteurs sont moins incités à investir dans la construction de centrales à énergie fossile qui sont pourtant nécessaires pour produire durant ces périodes. D’où un risque pour la sécurité d’approvisionnement : avec un écart potentiellement réduit entre les capacités disponibles et la demande en pointe, le risque que l’écart réel entre la production et la consommation soit négatif est alors plus grand.

Une solution possible est la création d’un « marché de capacités ». Sur ce marché, la mise à disposition bien à l’avance de la capacité de production d’une centrale entraîne une rémunération, même s’il n’y pas de production effective. Ce type de marché intéresse les neuf énergéticiens, dans la mesure où ils sont dotés en centrales électriques à gaz et/ou sont vendeurs de gaz, qui sont celles sollicitées en période de pointe. En France, la loi de NOME de 2010 prévoit la mise en place d’un tel marché pour la fin 2015.

Notons par ailleurs qu’une part significative des centrales à énergie fossile n’étant pas en fin de vie physique, l’intégration des SER ajoute des capacités à un marché européen de l’énergie électrique déjà en état de surcapacité. Cette situation de surcapacité est aggravée par la crise économique qui touche la demande d’énergie. Elle concerne surtout les centrales à gaz déjà concurrencées par les centrales à charbon devenues plus rentables depuis l’importation du surplus de charbon américain, évincé par le gaz de schiste. L’excès d’offre contribue cependant à contenir les prix de l’électricité.

Au final, l’audition des neuf énergéticiens au Parlement européen révèle deux difficultés majeures de toute politique de transition énergétique. La première est le coût de l’ajustement au nouveau mix énergétique. Les énergéticiens, tels les neuf, se plaignent (à juste titre) que ce coût met en péril leur rentabilité et certains seront contraints de fermer des sites de production, voire de les démanteler, pour y faire face (Eon en Allemagne). Les consommateurs, de leur côté, financent entre autres l’obligation de rachat – en France, via la contribution au service public de l’électricité (700 millions d’euros en 2010). Le coût de l’ajustement est incontournable et même nécessaire à l’ajustement : c’est parce qu’elles ont à supporter un coût supplémentaire que ces entreprises modifieront leur portefeuille énergétique. La deuxième difficulté se résume en une question : comment concilier le soutien aux SER et la sécurité d’approvisionnement ? Si la politique énergétique participe bien d’une amélioration de la qualité de l’air, elle semble encore inefficace dans la gestion de la sécurité d’approvisionnement qui constitue tout autant un bien public.

La CE s’oriente vers des solutions de coopération. À l’instar du développement coordonné de l’interconnexion des réseaux nationaux mené par les gestionnaires des réseaux de transport, elle s’interroge sur la faisabilité d’un marché commun d’échanges de capacité de productions d’électricité. La CE souhaiterait également que les Etats membres se coordonnent pour la fixation des tarifs d’achat garantis. En effet, ces tarifs peuvent créer des effets d’aubaine, notamment pour les équipementiers (voir Guillou, S., 2013, Le crépuscule de l’industrie solaire, idole des gouvernements, Note de l’OFCE No. 32). Il reste à trouver des mécanismes qui entraîneraient une gestion coordonnée de la sécurité d’approvisionnement électrique de l’UE tout en faisant une place aux SER. L’audition des énergéticiens au Parlement européen devrait susciter une réflexion plus générale sur la sécurité d’approvisionnement dans l’UE, toutes sources d’énergie confondues.

 


[1] Nous remercions Dominique Finon, Céline Hiroux et Sandrine Selosse. Toute erreur est de notre seule responsabilité.

[2] Le chiffre des 20% couvre un nombre de secteurs plus grand que le secteur de l’énergie électrique.

[3] Ce principe était surtout valable avant la libéralisation des marchés de gros, où un producteur verticalement intégré décidait des centrales à démarrer pour répondre à une demande nationale.

[4] Les tarifs d’achat garantis ont été mis en place afin que les technologies de production de l’électricité à partir de SER qui n’étaient pas encore matures ne soient pas désavantagées.




France : moins d’austérité, plus de croissance

par Eric Heyer

Ce texte résume les perspectives 2013-2014 de l’OFCE pour l’économie française.

En 2013, l’économie française devrait croître de 0,2 % en moyenne annuelle, ce qui lui permettrait de retrouver en fin d’année son niveau de production atteint six ans plus tôt, soit celui de fin d’année 2007. Cette performance médiocre est très éloignée du chemin qu’aurait dû normalement emprunter une économie en sortie de crise.

Le potentiel de rebond de l’économie française était pourtant important : une croissance spontanée moyenne de près de 2,6 % l’an sur  la période 2010-2013 était possible et aurait permis à la France d’annuler la perte de production accumulée au cours des années 2008-2009. Mais cette « reprise » a été freinée, principalement par la mise en place de plans d’économies budgétaires en France et dans l’ensemble des pays européens. Pour la seule année 2013, cette stratégie budgétaire aura amputé l’activité en France de 2,4 points de PIB.

La prise de conscience de l’existence de multiplicateurs budgétaires élevés a été tardive : elle a eu lieu une fois que les plans d’austérité eurent produit leurs effets négatifs sur la croissance. A la fin mai 2013, elle a poussé les autorités européennes à offrir un délai supplémentaire à six pays de l’Union, dont la France, en vue de corriger leur déficit excessif. L’allègement des exigences de la Commission constitue un ballon d’oxygène et permet au gouvernement d’amoindrir les mesures d’austérité pour 2014. Selon le budget présenté à l’automne 2013, l’effet interne de l’austérité serait ainsi atténué de 0,5 point entre 2013 et 2014, et puisque nos partenaires mènent eux aussi des politiques moins restrictives, un supplément de demande externe est anticipé. Au total, c’est donc près d’un point de croissance qui serait regagné en 2014 par rapport à 2013, grâce à l’allègement de la rigueur et ce, malgré des multiplicateurs budgétaires toujours élevés.

Dans ces conditions, la croissance devrait être de 1,3 % en 2014 en moyenne annuelle. En s’établissant à un rythme toujours inférieur à son potentiel, la croissance attendue accentuera le retard de production accumulé depuis 2008 et continuera à dégrader le marché du travail. Le taux de chômage en France métropolitaine augmenterait légèrement pour s’établir à 10,9 % fin 2014.

La contrepartie à l’allègement de la rigueur est un déficit public plus élevé que ce qui avait été initialement programmé. Le déficit public s’établirait à 3,5 % du PIB en 2014, après avoir atteint 4,1 % en 2013 et la dette brute des administrations publiques frôlerait 95 % du PIB l’année prochaine.




La zone euro écartelée

par Céline Antonin, Christophe Blot, Sabine Le Bayon et Danielle Schweisguth

Ce texte résume les perspectives 2013-2014 de l’OFCE pour l’économie de la zone euro.

Après six trimestres de baisse, le PIB de la zone euro a renoué avec la croissance au deuxième trimestre 2013. Ce redémarrage de l’activité est un signal positif que corroborent également les enquêtes de conjoncture. Il montre que la zone euro a cessé de s’enfoncer dans les profondeurs de la dépression. Il serait cependant prématuré de conclure que la reprise est enclenchée, car ce niveau de croissance trimestriel (0,3 %) est insuffisant pour entraîner une décrue significative du chômage. En octobre 2013, le taux de chômage se stabilise à un niveau record de 12 % de la population active. Surtout, la crise laisse des stigmates et crée de nouveaux déséquilibres (chômage, précarité et déflation salariale) qui seront autant de freins à la croissance à venir, en particulier dans certains pays de la zone euro.

Plusieurs facteurs permettent d’anticiper un redémarrage de l’activité qui devrait perdurer au cours des prochains trimestres. Les taux d’intérêt souverains de long terme ont baissé, notamment en Espagne et en Italie. Cela témoigne de l’éloignement de la menace d’un éclatement de la zone euro et ce, en partie grâce au soutien conditionnel annoncé par la BCE il y a un peu plus d’un an (voir Amis des acronymes : voici l’OMT). Surtout, l’austérité budgétaire devrait s’atténuer parce que la Commission européenne a accordé des délais supplémentaires à plusieurs pays, dont la France, l’Espagne ou les Pays-Bas, pour résorber leur déficit budgétaire (voir ici pour un résumé des recommandations formulées par la Commission européenne). Par les mêmes mécanismes que nous avions décrits dans nos précédentes prévisions, il résulte de cette moindre austérité (-0,4 point de PIB d’effort budgétaire en 2013 contre -0,9 en 2013  et -1,8 en 2012) un peu plus de croissance. Après deux années de récession en 2012 et 2013, la croissance s’établirait à 1,1 % en 2014.

Cependant, cette croissance sera insuffisante pour effacer les traces laissées par l’austérité généralisée mise en œuvre depuis 2011 et qui a précipité la zone euro dans une nouvelle récession. En particulier, les perspectives d’emploi ne s’améliorent que très lentement car la croissance est trop faible. Depuis 2008, la zone euro a détruit 5,5 millions d’emplois et nous n’anticipons pas une franche reprise des créations nettes d’emploi. Le chômage pourrait diminuer dans certains pays mais cette baisse s’expliquera principalement par des retraits d’activité de chômeurs découragés. Dans le même temps, la réduction de l’austérité ne signifie pas qu’il n’y aura plus d’austérité. A l’exception de l’Allemagne, les efforts de consolidation budgétaire se poursuivent dans tous les pays de la zone euro. Qu’elle passe par la réduction des dépenses publiques ou par une hausse de la pression fiscale, les ménages supporteront l’essentiel du fardeau de l’ajustement. Dans le même temps, la persistance d’un chômage de masse continuera à alimenter les pressions déflationnistes déjà à l’œuvre en Espagne ou en Grèce. Dans ces pays, l’amélioration de la compétitivité qui en résulte stimulera les exportations, mais au prix d’une demande interne de plus en plus affaiblie. La paupérisation des pays du sud de l’Europe va donc s’accentuer. En 2014, la croissance dans ces pays sera de nouveau inférieure à celle de l’Allemagne, l’Autriche, de la Finlande ou de la France (tableau).

Par conséquent, la zone euro deviendra de plus en plus hétérogène, ce qui pourrait cristalliser les opinions publiques des différents pays contre le projet européen et rendra la gouvernance de l’union monétaire encore plus difficile tant que les intérêts nationaux divergeront.

Tab_Post-17-02




La crise sur un plateau

par Xavier Timbeau

Ce texte résume les perspectives 2013-2014 de l’OFCE pour l’économie mondiale.

Six années après le début de la crise financière et économique, l’accélération attendue de la croissance mondiale en 2014 (tableau 1) aurait pu laisser espérer la fin du marasme. Certes, la crise des dettes souveraines en zone euro est terminée, ce qui constitue une étape importante, mais, au-delà de quelques chiffres positifs, rien n’indique que la crise est finie. L’activité en zone euro a atteint un plateau et les mécanismes à l’origine de la crise des dettes souveraines dans la zone – la crainte du défaut sur les dettes publiques ou privées – peuvent faire replonger à tout instant les économies, des États-Unis comme de l’Europe, du Royaume-Uni comme celle du Japon.

tab1prev_blog2210

 

La crise est globale et présente des caractéristiques peu ou jamais observées dans le passé. Ainsi, les taux d’intérêt souverains sont exceptionnellement bas, sauf dans les pays dont les marchés financiers doutent, mais dont le poids dans la masse globale de dette publique est faible. Cela indique une situation de trappe à liquidité où la politique monétaire conventionnelle a atteint ses limites et où la capacité des institutions monétaires à énoncer un avenir auto-réalisateur est cruciale. Or, comme pendant la crise de 1929, le débat fait rage sur cette capacité et suscite beaucoup d’interrogations quant à la sortie de crise. La politique monétaire est au cœur de cette incertitude : les mesures extraordinaires mises en place retiennent-elles les économies au bord du gouffre ? Les retirer est-il opportun ? Ou bien n’a-t-on fait qu’improviser un pis-aller dont les conséquences inflationnistes seront la source d’une prochaine crise ?

L’activité économique, mesurée par le PIB de l’ensemble de la zone euro, ne se contracte plus. Pour autant, la situation de sous-activité ne se résorbe pas. Or, tant que les économies restent en situation de sous-activité, les effets de la crise persistent et se diffusent au cœur des sociétés. Que l’on observe le PIB par tête, les écarts de production ou le chômage, les indicateurs nous décrivent un plateau, largement en deçà de 2007. Ainsi, la persistance du chômage au-dessus de son niveau d’équilibre gonfle-t-elle les cohortes de chômeurs non-indemnisés ou de longue durée. Le niveau élevé du chômage pèse sur la cohésion sociale et menace les sociétés bâties sur l’intégration par le travail. Les chômeurs sont renvoyés vers les solidarités familiales ou vers les filets de protection sociale, eux-mêmes soumis à la consolidation budgétaire. Les jeunes entrant sur le marché du travail retardent leur accès à l’emploi et porteront longtemps les stigmates de ce chômage initial sur leurs salaires ou leurs carrières.

Mais le chômage a une incidence plus large. La peur de perdre son emploi, de voir son entreprise fermée ou délocalisée se diffuse à ceux qui ont un emploi et dont les salaires finissent par être affectés ou qui sont contraints d’accepter des conditions de travail dégradées. C’est ainsi que l’Europe du Sud s’engage dans la déflation salariale et, par le jeu de la concurrence, y entraînera les pays voisins.

Cette absence de reprise ne doit pas surprendre. Un programme généralisé et massif de consolidation budgétaire a été conduit dans les pays développés. Le cumul des impulsions de 2008 à 2013 permet de faire le bilan de la stimulation des économies pendant la récession de 2008/09 puis de la consolidation qui a suivi (tableau 2).

tab2prev_blog2210

 

Le débat sur les multiplicateurs budgétaires, à partir des analyses empiriques basées sur des modélisations structurelles ou l’examen systématique des épisodes historiques, valide la causalité allant des impulsions budgétaires vers les écarts de production. Une grande part de l’écart de production en 2013 résulte de la consolidation budgétaire. Il n’y a pas d’effet permanent de la crise sur l’activité, mais la conséquence d’une austérité budgétaire sans précédent.

Les pays développés se sont engagés dans cet effort de consolidation sous la pression des marchés financiers, relayée par les autorités européennes. La crainte de difficultés pour financer la dette publique (dont le renouvellement se fait dans des proportions importantes chaque année et dont la maturité  est de l’ordre de 10 ans dans les pays développés), voire la crainte de perte de l’accès au financement, s’est matérialisée par une hausse des taux souverains et n’a pas laissé beaucoup de possibilités aux États. Pour regagner du crédit, il fallait prouver sa capacité à réduire son déficit, quel qu’en soit le prix. La consolidation qui en a résulté n’a été faite que de façon préventive. Les exemples grec, mais aussi portugais, espagnol ou italien illustreraient le risque à ne pas avoir des finances publiques ordonnées. Pour certains, dont les économistes de la Commission européenne, c’est en fait la consolidation massive engagée dans les pays membres qui a permis de mettre fin à la crise de la zone euro. Il existe pourtant une explication alternative et lourde de sens quant à l’opportunité de la consolidation budgétaire : le rôle pris par la Banque centrale européenne et les engagements solidaires implicites des pays de la zone euro ont été plus convaincants que les politiques économiques qui ont prolongé et aggravé la récession.

Le désendettement public et privé des économies est la clef de la sortie de la crise. Il nécessite une stratégie claire et raisonnable combinant retour de l’activité et réduction du chômage, maintien des taux d’intérêt souverains à un niveau bas et consolidation budgétaire à un rythme bien tempéré. Cette stratégie demande une maîtrise du calendrier, une constance dans la politique suivie, une coordination entre États et entre agents économiques au sein des États. En zone euro, elle repose sur un engagement crédible des Etats membres vers l’assainissement budgétaire à moyen terme et un engagement de la Banque centrale européenne pour que les écarts de taux soient réduits au maximum. La discipline budgétaire par les marchés ne fonctionne pas, il faut lui opposer la volonté politique de la stabilité économique.




La zone euro est-elle sortie de récession ?

Par Philippe Weil

Le Euro Area Business Cycle Dating Committee du Centre for Economic Policy Research (CEPR) de Londres s’est penché le 9 octobre dernier à l’OFCE sur cette épineuse question (voir ici la composition de ce comité que je préside). La mission du comité est d’établir une chronologie des récessions et expansions dans la zone euro, inspirée de celle, remontant à 1854, que le National Bureau of EconomicResearch a fixé pour les Etats-Unis.

Une telle chronologie présente deux intérêts.

Le premier intérêt est qu’elle permet aux économistes de s’interroger sur les caractéristiques de la conjoncture européenne. Les récessions sont-elles de durée courte ou longue ? Fréquentes ou rares ? Profondes ou légères ? La zone euro évolue-t-elle de concert avec l’économie américaine ? Le ralentissement de l’activité économique dû à la crise financière est-il inhabituel (plus persistant que d’ordinaire, plus marqué) ? Sans une définition précise du calendrier des hauts et des bas de l’activité économique et sans un portrait-robot des fluctuations conjoncturelles, on ne peut apporter de réponse à ces questions pourtant élémentaires.

Le second intérêt de cette chronologie est que son établissement exige de se pencher sur toutes les composantes de l’activité économique : le PIB, bien sûr, mais aussi la consommation, l’investissement et surtout l’emploi (nombre de personnes en emploi, nombre d’heures travaillées). Selon l’exercice de datation du CEPR, une expansion est en effet une période où l’activité économique, dans toutes ses facettes, croît de façon significative. Ce n’est donc pas nécessairement un épisode d’au moins deux trimestres consécutifs (et encore moins d’un seul trimestre !) d’augmentation du PIB. Par exemple, le comité de datation du CEPR a identifié comme une récession de la future zone euro la période courant du premier trimestre de 1980 au troisième trimestre de 1982 alors que le PIB réel avait crû durant plusieurs trimestres pendant cette période et qu’il était plus élevé à la fin de la récession qu’au début ! Les coupables en étaient l’investissement et l’emploi qui avaient fortement décliné pendant cette période.

Pour rajouter à la complexité de l’exercice de datation, il faut se rappeler qu’il doit composer avec une dure réalité : les statistiques économiques nous parviennent avec retard et sont ensuite révisées, parfois significativement, au cours du temps. Contrairement aux météorologistes qui connaissent la température au sommet de la Tour Eiffel en temps réel, les économistes n’ont en effet aucune idée, par exemple, du niveau du PIB du mois ou du trimestre courant. Les premières estimations ne sont publiées qu’après plusieurs mois (par exemple, le premier flash estimate du PIB de la zone euro pour le troisième trimestre de 2013 ne sera publié par Eurostat que le 14 novembre 2013) et il arrive que des taux de croissance qui semblent positifs d’après les premières estimations se révèlent, après révisions ultérieures, négatifs – ou vice-versa. En se penchant sur tous les déterminants de l’activité économique (notamment l’emploi), et pas seulement sur le PIB, le comité pare (jusqu’à présent avec succès) à cette imperfection des données et évite de déclarer l’existence, par exemple, d’une récession qui ne serait qu’un mirage statistique effacé après révision ultérieure des données. Ainsi, le comité n’avait pas déclaré en septembre 2003 l’existence d’une récession entre 2001 et 2003 alors que les données montraient à l’époque une baisse du PIB (mais jamais, il est vrai, pendant deux trimestres consécutifs). Il avait conclu à l’existence d’une pause prolongée dans un épisode d’expansion. Bien lui en a pris, car les révisions ultérieures du PIB ont effacé ces trimestres de déclin de l’activité économique (voir graphique 1). Son diagnostic était donc avisé.

graph1_2210PWblog

Revenons à la zone euro telle que nous l’observons en octobre 2013. Elle a connu un pic d’activité au troisième trimestre 2011 et, depuis son entrée en récession à cette date, elle a connu une croissance trimestrielle faiblement positive au deuxième trimestre de 2013. La première estimation du troisième trimestre 2013 ne sera connue, comme je l’ai indiqué plus haut, que le 14 novembre prochain. Certes, plusieurs indices concordants indiquent que l’activité sera orientée à la hausse et que les perspectives macroéconomiques pour 2014 sont plus favorables. Mais le comité de datation a néanmoins observé le 9 octobre dernier qu’il était prématuré, à la date où il s’est réuni, de conclure que la zone euro était sortie de récession. En effet, ni la durée ni l’ampleur de la reprise putative de l’activité économique ne sont suffisantes pour conclure d’ores et déjà à la fin de la récession. Ce jugement n’est pas basé sur l’absence, pour l’instant, de deux trimestres consécutifs de croissance du PIB car tel n’est pas le critère, mécanique, qui guide la réflexion du comité. Il ne reflète pas non plus un pessimisme quelconque sur les perspectives économiques pour 2014 car le comité ne fait pas de prévision. L’évaluation du comité repose simplement sur l’examen de l’ensemble des données disponibles le jour de sa réunion. Le comité n’exclut pas que la zone euro ne connaisse qu’une pause dans la récession commencée il y a un an.

 graph2_2210PWblog




Taxis vs VTC : la victoire du lobby contre l’innovation ?

par Guillaume Allègre *

L’affaire est entendue : en imposant aux voitures de tourismes avec chauffeur (VTC) un délai de 15 minutes entre la réservation et la prise en charge du client, le lobby des taxis aurait gagné une bataille contre l’innovation[1], réussissant ainsi à préserver une rente. C’est peut-être Nicolas Colin, inspecteur des finances et co-rédacteur d’un rapport sur la fiscalité de l’économie numérique, qui présente l’argument de la victoire du lobbying contre l’innovation de la façon la plus convaincante et divertissante (« Les fossoyeurs de l’innovation »).

Pour rappel, depuis quelques années, des start-up (Voitures jaunes, Uber, SnapCar, LeCab…) proposent des services de voitures avec chauffeur, réservables sur smartphone après téléchargement d’une application. Le service rendu semble apprécié par les clients de VTC : le prix est connu à l’avance, la voiture attend sans surcharge, on peut suivre la voiture commandée sur son écran, la course est prépayée. Face à ces nouveaux entrants, les taxis dénoncent une concurrence déloyale. En effet, non seulement la profession est très réglementée[2] mais ils doivent aussi payer une licence (230 000 euros à Paris, 400 000 euros à Nice en 2012) pour avoir le droit de stationner dans la rue et prendre des clients à la volée, seuls avantages qu’ils ont par rapport aux VTC depuis la déréglementation des VTC en 2009[3]. Or, à l’heure où la plupart des clients potentiels de services de taxis sont équipés de smartphone qui permettent la géolocalisation, on peut redouter que la valeur de ce droit supplémentaire (prendre les clients dans la rue qui lèvent le bras, plutôt que de se géolocaliser) s’effondre. Selon les sociétés de taxis, les VTC contournent ainsi l’esprit de la loi en pratiquant la réservation immédiate.

Il n’est pas inutile de rappeler à ce stade que le débat sur la réglementation des taxis ne date ni d’hier ni du rapport Attali pour la libération de la croissance. A Paris, les historiens font remonter les premiers services de « voitures de louage avec cocher » à 1612 (sur cette partie historique, voir « Régulation des taxis, a tale of two cities »). La première régulation date de 1657 lorsque Louis XIV accorde un monopole au Sieur de Givry. A Londres, la première réglementation date de 1635 et répond à la demande des bateliers qui dénonçaient une concurrence déloyale alors qu’ils avaient jusque-là un monopole de fait sur le transport de passagers entre la City et Westminster : le roi impose alors aux carrosses des courses de plus de trois miles (la distance entre la City et Westminster est de 2,3 miles). Depuis le milieu du XVIIème siècle, l’histoire des taxis à Paris et à Londres oscille entre réglementation et dérégulation, monopoles accordés et inventions de nouveaux services pour contourner ces monopoles : en 1664, Piquet de Sautour reçoit le monopole des calèches à un cheval ; en 1665, le Marquis de Crenan celui des « Chaises à la Crenan », véhicules légers à deux roues (Margairaz, cité par Darbéra). Disons qu’Uber et SnapCar ressemblent étrangement à ces chaises à la Crenan et autres calèches à un cheval.

Le meilleur rapport qualité/prix des VTC est-il dû à des gains de productivité liés à l’innovation ou au fait qu’ils n’ont pas à payer des licences de 230 000 euros (à Paris) ? Evidemment, on a toutes les raisons de penser qu’économiser 230 000 euros procure un net avantage économique. En revanche, les arguments en faveur de l’innovation sont assez faibles : les nouvelles technologies permettent la localisation des taxis, mais c’est également le cas des centrales radios, créées à Paris en 1964 par G7 et les compagnies de taxis n’ont pas attendu la concurrence des VTC pour utiliser les techniques de localisation en temps réel (La CNIL a été saisie de la question de la géolocalisation des employés par les sociétés de taxis dès 2004). Certaines compagnies de taxis proposent d’ailleurs le même service de commande d’un taxi en temps réel à l’aide d’une application pour smartphone. Enfin à Paris, les « innovations » dans les services de transports de passager incluent le retour de la propulsion humaine, ce qui relativise également leur caractère réellement innovant. Si les gains de productivité étaient réellement dus à l’innovation, les nouveaux entrants pourraient acheter les licences et remplacer les anciennes sociétés de taxis. Ils ne le feront pas parce que ni eux ni les centrales-radio ne veulent prendre le risque que les licences ne perdent leur valeur. Ils préfèrent que les artisans portent ce risque : il n’y a aujourd’hui que 37% de locataires ou salariés parmi les chauffeurs de taxis parisiens et on peut penser qu’une grande partie des détenteurs de ces licences les ont reçues gratuitement. D’un point de vue politique, cette structure est rationnelle : un gouvernement spoliera moins facilement un artisan-taxi qu’un actionnaire d’une société de taxi, à la fois pour des raisons de justice sociale et de pouvoir de nuisance.

Le discours sur l’innovation et la croissance sert ici de leurre pour masquer un classique conflit entre producteurs, qui veulent défendre leurs revenus, et consommateurs, qui veulent un service de  taxi peu coûteux et disponible rapidement, y compris en heures de pointe. Ce conflit se double d’un non moins classique conflit entre détenteurs d’une licence ayant une valeur de rareté et nouveaux entrants, défenseurs de l’ouverture du marché. Dans ce paysage, l’alliance entre nouveaux entrants et consommateurs, qui ont aussi intérêt à l’ouverture du marché, paraît naturelle. Pour les détenteurs de licence, l’enjeu de ce conflit est d’autant plus important que le prix auquel la licence s’échange est élevé.

Ceci dit, la régulation actuelle pose problème. La limitation du nombre de licences de taxis a pour objectif de soutenir le revenu des taxis indépendants et d’éviter qu’ils travaillent trop d’heures par jour pour atteindre un revenu décent[4]. La régulation peut également se justifier  pour des motifs de qualité minimale et de sécurité. C’est le Front Populaire, suite à la crise économique et à l’afflux de chômeurs dans le secteur, qui a réintroduit le contingentement de licences (le secteur était ouvert depuis 1865). Dans ces conditions, il est particulièrement absurde d’avoir permis que ces licences soient cessibles[5] et d’avoir laissé leur prix augmenter en ne délivrant pas de licences supplémentaires entre 1990 et 2002 (alors que, par exemple, dans le même temps, le nombre de passagers dans les aéroports de Paris a augmenté de 49%[6]). Permettre la cession des licences, c’est transférer l’avantage lié au contingentement des licences de taxis des chauffeurs de taxis aux propriétaires des licences, au détriment des nouveaux acquéreurs. En effet, pour le nouvel entrant dans la profession, l’avantage du contingentement est nul puisqu’il doit payer cet avantage au prix du marché. La régulation actuelle est d’autant plus aberrante que les nouvelles licences sont cédées gratuitement (sur liste d’attente) : si le préfet attribue gratuitement 1 000 nouvelles licences, c’est 230 millions d’euros au prix du marché qui seront transférés aux heureux gagnants.

Si la régulation actuelle est absurde, il serait injuste de spolier ceux qui viennent de dépenser une fortune pour acquérir une licence, par exemple en augmentant massivement le nombre de licences.

Une première solution consiste à racheter en une fois les licences cessibles au prix du marché et à attribuer de nouvelles licences non cessibles. Le coût d’une telle mesure serait colossal : il y a environ 17 500 licences à Paris, ce qui représenterait un coût total de 4 milliards d’euros.

Une autre proposition, avancée notamment par Trannoy, est censée augmenter le nombre de licences sans ruiner les acquéreurs récents. La préfecture attribuerait une licence à chaque détenteur actuel de licence, ce qui doublerait le nombre de licences en circulation ; la valeur des licences serait divisée par deux mais sans léser les propriétaires de licences qui conserveraient une et vendrait la deuxième. En première approximation, le patrimoine des chauffeurs de taxi resterait inchangé. Trannoy envisage même que les détenteurs de licence soient gagnants car le chiffre d’affaires global devrait augmenter. Cette solution a également l’avantage de ne rien coûter aux pouvoirs publics. Bref, elle ne ferait que des heureux et l’intérêt des taxis ne s’opposerait pas à celui des consommateurs. Il y a en fait une erreur de raisonnement dans la proposition de Trannoy : il suppose que la valeur de la licence est proportionnelle au chiffre d’affaires des taxis. A chiffre d’affaires global inchangé, un doublement des licences signifierait une division par deux du prix des licences. Ceci est faux : si on multiplie par dix le nombre de licences, elles ne vaudront plus rien et pas dix fois moins. La valeur de la licence est en fait proportionnelle au profit (qui provient du contingentement des taxis), ce qui fait une grande différence dans un secteur où le coût fixe est élevé et le coût marginal faible (rouler à vide ne coûte pas moins cher que rouler à plein)[7]. Bacache-Beauvallet et al. (2008) estiment par exemple à 35 000 euros le coût fixe de l’activité de taxi (salaire compris) et à 42%, l’augmentation du nombre de licences à Paris qui annulerait la valeur des licences[8]. Cette évaluation n’est pas aberrante : la valeur des licences en 1995, pendant la période de gel des attributions était beaucoup plus faible (60 000 euros[9]).

Que faire ?

Le problème ne se limite pas à la question du nombre de licences : au cours de la journée, il y a inadéquation entre offre et demande du fait d’une demande beaucoup plus importante en heures de pointe qui se conjugue, à Paris, avec un engorgement important, qui réduit la vitesse des taxis ou les bloque aux aéroports. La régulation doit également se préoccuper d’une meilleure adéquation entre offre et demande au cours de la semaine, en modulant encore plus la tarification selon l’heure et en incitant au développement du doublage de licence comme l’explique par exemple ce rapport (pdf).

Concernant les licences, la très forte augmentation de leur valeur traduit probablement une offre trop faible par rapport à la demande. L’objectif serait alors d’augmenter l’offre sans spolier les nouveaux acquéreurs. De plus, il serait préférable de sortir d’un système où l’on doit se préoccuper continuellement de la valeur patrimoniale des licences attribuées gratuitement. Une solution consiste à  racheter les licences actuelles au fil de l’eau, non à leur valeur de marché mais à leur valeur d’acquisition majorée d’intérêts[10]. De nouvelles licences non cessibles seraient attribuées gratuitement. Leur nombre permettrait de maintenir le revenu net des nouveaux acquéreurs[11], en tenant compte d’un prélèvement sur le chiffre d’affaires (taxis plus VTC) qui financerait un fond de rachat des anciennes licences[12]. Ce système permet d’indemniser les acquéreurs récents, sans contribuer à l’enrichissement de ceux qui ont obtenu antérieurement une licence gratuitement ou à un prix très faible. Il permet la transition d’un système de licences cessibles à un système de licences non cessibles dans lequel le nombre de licences en circulation et la répartition du marché entre VTC et taxis dépend de la demande de services et non du pouvoir de nuisance des uns et des autres. Il est complexe mais il permet de détricoter les erreurs du passé de façon la plus équitable.

Il est toutefois peu probable qu’une telle solution soit mise en place. Par rapport au statu quo, elle fait de gros perdants dans l’immédiat : les détenteurs de licence qui espèrent réaliser une plus-value importante, notamment les chauffeurs les plus proches de la retraite. Les nouveaux acquéreurs de licence seraient probablement solidaires en espérant pour eux-mêmes une telle solidarité qui permettrait de maintenir le système actuel. Le risque pour eux est que le nombre de licences augmente au fil de l’eau et/ou que les VTC capturent une part croissante du marché malgré les contraintes qui leur sont imposées. Dans ce cas, la valeur réelle de leur licence pourrait diminuer petit à petit : les acquéreurs récents seraient perdants mais la perte ne serait actée que lorsqu’ils prendront leur retraite, dans 20 ou 30 ans. On peut toutefois penser que cette évolution ne se passera pas sans heurts.  
———–

* L’auteur n’a reçu aucun financement, ni des compagnies de taxis, ni des compagnies de VTC.

[1] L’argument de l’innovation est abondamment repris par les VTC sur le mode « chandelles et ampoules électriques » : voir par exemple « #PourNePasFaireDeConcurrence ».

[2] Le chauffeur de taxi doit notamment être titulaire d’une carte professionnelle, le taximètre est obligatoire et  les tarifs maximaux sont fixés par arrêté préfectoral.

[3] Avant 2009, l’activité de « grande remise », dont la spécialité est la mise à disposition de voitures haut de gamme avec chauffeur, uniquement sur commande et pour une destination définie, était soumise à une licence spéciale délivrée par le préfet, le représentant de l’entreprise devant également être titulaire d’un certificat d’aptitude à la profession d’entrepreneur de remise et de tourisme. La loi du 22 juillet 2009 a supprimé l’obligation de posséder une licence, ce qui a permis le développement des VTC.

[4] Du fait de coûts marginaux faibles et de coûts fixes élevés, le profit est négatif à l’équilibre concurrentiel en l’absence de régulation (« Valeur de licence et régulation du marché des taxis »). En pratique, cela signifie qu’en l’absence de régulation la rémunération des chauffeurs de taxi indépendants risque d’être inférieure au SMIC.

[5] Les licences peuvent officiellement être revendues depuis 1973.

[6] « Propositions de réforme de la profession de taxi » (Page 16)

[7] Prenons l’exemple extrême d’une activité où le coût marginal est nul et le coût fixe représente 2/3 du chiffre d’affaires : disons que le coût fixe est égal à 100 000 euros, le chiffre d’affaires de 150 000 euros, le profit est donc de 50 000 euros. Pour le propriétaire, la valeur de cette activité correspond aux profits futurs actualisés : elle est proportionnelle au profit. Si le chiffre d’affaires est réduit d’un tiers à 100 000 euros, le profit est annulé de même que la valeur de la propriété.

[8] Les auteurs utilisent un modèle théorique calibré. En réalité, le prix réel de la licence ne tomberait pas à zéro, notamment parce que les acteurs sur le marché pourraient anticiper la construction d’une nouvelle rente de rareté.

[9] Darbéra. A Dublin, la valeur de la licence de taxis est passée de 3 500 IEP en 1980 à 90 000 IEP en 2000, période de restriction de l’accès au marché (OCDE).

[10] Cette solution nécessite d’interdire la cession de ces licences sur le marché, ce qui était déjà le cas avant 1973.

[11] Généralement, les locataires et salariés.

[12] La valeur des licences a fortement augmenté dans les années 90 puis entre 2003 et aujourd’hui. Elle valait 60 000 € en 1995 (Darbéra), 90 000 € en 1999, 105 000 € en 2003 et 180 000 € en 2007 (voir annexe 9). Le prix de rachat des licences peut être estimé à 3 milliards d’euros (en tenant compte de l’évolution du prix de la licence de taxi entre 1993 et 2013, d’un taux d’intérêt nominal de 4% et d’un taux de rotation de 5%) : sur une période de 20 ans, il faudrait pouvoir dégager l’équivalent de 150 millions annuels (en euros 2013).




Les hausses d’impôts, une solution à la crise ?

par Mario Amendola, Jean-Luc Gaffard, Fabrizio Patriarca

Cette question, qui peut apparaître provocatrice, mérite d’être posée à la condition de prendre conscience des dimensions réelles et pas seulement financières de la crise et de formuler les hypothèses qui rendraient le scénario crédible. Dans la perspective tracée ici, si les hausses d’impôt doivent jouer un rôle, ce n’est pas dans le cadre d’un ajustement budgétaire susceptible de rétablir des comptes publics dégradés par la crise, mais avec l’objectif de maintenir ou de rétablir un niveau de dépenses productives altéré du fait de l’accroissement des inégalités. Aussi tout dépendra-t-il de la nature des impôts comme de celle des dépenses publiques.

Chacun convient, aujourd’hui, que le creusement des inégalités, singulièrement aux Etats-Unis, a eu une influence sur le déroulement des événements. L’endettement des ménages les moins aisés n’a fait que retarder la chute de la demande agrégée. La prise de conscience de l’insolvabilité de ces mêmes ménages a constitué le facteur de déclenchement de la crise. Aussi n’y a t-il pas de solution à moyen et long terme sans un désendettement des ménages et des entreprises. Le rôle des pouvoirs publics est d’y aider. Mais ils ne peuvent l’exercer qu’en prenant des décisions qui aboutissent à un endettement public accru. L’endettement public se substitue, alors, à l’endettement privé. Le déficit public financé par la dette doit, en outre, être prolongé tant que ménages et entreprises n’ont pas pu rétablir leurs bilans, ce qui leur permettrait d’envisager de consommer et d’investir plus. Ce scénario se heurte, toutefois, à l’insolvabilité potentielle des Etats qui prend une dimension particulière au sein de la zone euro. Il n’explique pas réellement ce que sont les ressorts d’un rebond de la consommation et de l’investissement faute de se rapporter aux implications du creusement des inégalités sur le partage de la demande entre activités productives et improductives.

Reconnaître le poids des inégalités c’est, certes, reconnaître qu’il y a un problème de demande, mais c’est surtout reconnaître l’hétérogénéité des consommateurs et le caractère non homothétique des préférences individuelles. Le creusement des inégalités modifie, avant tout, la structure de la demande. Certains diront au détriment des biens consommés prioritairement par la masse des salariés et au bénéfice des biens de luxe. D’autres diront au détriment des actifs productifs et au bénéfice des actifs financiers ou immobiliers existants.

Le mécanisme possiblement à l’œuvre est le suivant. Les ménages les plus riches ont un excès d’épargne qu’ils vont consacrer, d’une part, à l’achat de biens de luxe ou d’actifs sur les marchés financiers et immobiliers, d’autre part, à des prêts aux ménages moins aisés par le canal des intermédiaires financiers. Le creusement des inégalités a ainsi deux effets conjoints : faire monter le prix des actifs achetés par les plus aisés et faire monter le taux d’endettement des moins aisés. Le premier effet soutient le second en permettant aux prêts consentis de s’appuyer sur la valeur en hausse des actifs gagés (les « collatéraux »).

Sous l’hypothèse que la dépense publique est une dépense productive – elle alimenterait la demande de biens et services du secteur productif –, une dette publique accrue vient soutenir la demande globale et enrayer la récession. Toutefois, à moyen terme, la charge en intérêts peut rendre la dette publique difficilement soutenable avec, à la clé, la nécessité de réduire la dépense publique avant que la reprise de la dépense privée ne devienne significative. La substitution de la dette publique à la dette privée déplace le problème sans le résoudre.

Une alternative possible réside dans la taxation des revenus des ménages les plus aisés. Toujours sous l’hypothèse que la dépense publique s’adresse au secteur productif, cette taxation assure une redistribution des revenus qui a pour corollaire une reconfiguration de la structure de la demande au bénéfice des activités productives. Encore faut-il faire une autre hypothèse, celle que les impôts supplémentaires sont effectivement versés par les ménages qui affectent une fraction significative de leur épargne à des achats d’actifs improductifs. Dans un tel contexte, l’objectif n’est pas d’augmenter les impôts pour résorber le déficit public dans l’espoir que le retournement de conjoncture permettra de les diminuer plus tard, mais de tirer mieux partie de l’impôt comme outil de redistribution. Si augmentation de la pression fiscale il y a c’est bien pour ponctionner des revenus qui, pour une large part, sont des rentes dédiées à des consommations improductives.

La nature des dépenses et recettes publiques rend les hypothèses formulées fragiles. Des dépenses publiques sont improductives et il est difficile de distinguer celles qui le sont de celles qui ne le sont pas. Les hausses d’impôt touchent différentes catégories de contribuables sans véritablement discriminer entre elles suivant la structure de leurs dépenses.

Aussi notre propos n’est-il pas d’énoncer une solution d’application crédible et immédiate. Il est de souligner l’illusion de solutions globales, qu’il s’agisse d’une austérité généralisée, passant notamment par des hausses d’impôts, qui finit par peser sur la dépense des ménages et des entreprises ou de l’entretien prolongé d’une dette publique, qui ne fait que se substituer à la dette privée sans effet sur la structure de la demande. Il est, au terme d’un détour analytique, de conduire à la conclusion que la mise en œuvre effective d’un mécanisme de redistribution susceptible de permettre une hausse du produit potentiel suppose une réforme de l’Etat qui touche à la fois à l’orientation des dépenses publiques et à la structure de la fiscalité, toutes choses qui demandent du temps et de la clairvoyance sinon du courage politique.

… Lire Amendola, M., Gaffard, J.-L., Patriarca, F., 2013, Inequality, debt and taxation: the perverse relation between the productive and the non-productive assets of the economy, OFCE Working paper No. 2013-21.




Le déclin de l’Empire américain

par Christine Rifflart

Après deux semaines de shut down, et au bord de la cessation de paiement si aucun accord durable n’est trouvé avant la fin octobre, l’administration américaine est confrontée à une combinaison de crises sans précédent. Les coupes brutales sur les dépenses non votées dans le budget 2014 dont l’exercice fiscal a commencé le 1er octobre vont porter un coup fatal à la croissance du quatrième trimestre. La menace d’un défaut de paiement agite les marchés financiers, inquiète à juste titre les détenteurs de bons du Trésor et autres titres publics et fait planer le doute d’une nouvelle crise financière qui serait autrement plus grave pour l’économie mondiale que la crise de 2008. Enfin, le pays est en train de sombrer dans une crise institutionnelle sans précédent dont on a du mal à imaginer une issue positive. Car la proposition faite vendredi par les républicains (voir article du Financial Times du 11 octobre) de relever le plafond de dette pendant une période de six semaines pour désamorcer la crise autour du défaut aura fait long feu, puisque dès samedi elle était rejetée par le Président (voir article du 12 octobre). Cet épisode est apparu davantage comme une secousse supplémentaire à ce séisme qui n’en finit pas  qu’un début de réponse crédible à la situation.

Pour commencer, il faut rappeler que le plafond de la dette est la limite statutaire fixée par le Congrès sur le montant d’emprunts que le Trésor peut émettre pour satisfaire à ses obligations légales (remboursement de la dette fédérale, paiement des intérêts, dépenses budgétaires, …). Dans la mesure où le budget voté par le Congrès est en déficit, il génère un besoin de financement qui doit être couvert par une nouvelle dette[1]. Si la dette atteint la limite autorisée, le Trésor ne peut plus émettre de nouveaux titres, sauf dans la limite où d’anciens titres arrivent à maturité. Le Congrès doit alors relever le plafond de dette pour permettre l’application de la politique budgétaire, ou bien voter un budget qui dégage un excédent budgétaire primaire suffisant pour couvrir les obligations légales du Trésor. C’est bien dans cette problématique que se trouve actuellement l’administration américaine.

graph_1410CRblog

Depuis le 19 mai 2013[2], le plafond de la dette est atteint. Ne pouvant plus émettre de nouvelles dettes, le Trésor finance ses opérations par des mesures exceptionnelles (en recourant notamment aux réserves des Fonds de pension des fonctionnaires du gouvernement fédéral, du service postal,  ou encore du Fonds de Stabilisation des changes) lesquelles, selon le Secrétaire américain au Trésor, seront épuisées le 17 octobre.  Au-delà, le Trésor ne devrait plus disposer que de ses recettes fiscales perçues quotidiennement et d’un peu de cash pour continuer à honorer ses engagements normalement. La cessation de paiement pourrait être prononcée entre le 18 octobre et le 1er novembre, selon le Bipartisan Policy Center. Le Congressional Budget Office situe cette date au 22 octobre.

tab11010CR_blog

La proposition d’un relèvement du plafond de dette pendant six semaines devait reporter d’autant l’échéance d’un défaut et donner du temps au Congrès pour négocier un nouveau budget. Mais cela changeait-il vraiment la donne ?

Même en l’absence d’un vote au Congrès, d’importantes dépenses sont déjà engagées sur le budget 2014. Ainsi, dans la version révisée du Budget du Président de juillet dernier, sur les 3 642 milliards de dollars de dépenses fédérales prévues, 2 236 milliards sont des dépenses  obligatoires (mandatory programs), principalement au titre  des programmes sociaux (sécurité sociale, Medicare, Medicaid), 614 milliards sont destinés à la Défense et ont été votées dans les précédents budgets, et 222 milliards sont des charges d’intérêts. Or, les recettes fiscales étant insuffisantes pour couvrir ces dépenses déjà actées, le Trésor devra s’endetter pour les financer et sans relèvement suffisant du plafond, il ne pourra pas le faire.

L’objectif des républicains est donc bien de revenir sur les programmes sociaux. Mais là non plus le Congrès ne peut revenir sur des programmes qui ont déjà été votés et dont il a pris l’engagement de les respecter.

On voit bien la guerre politique qui se joue désormais.  Le plafond de la dette s’est placé au cours des deux dernières années, au cœur de la politique budgétaire américaine[3]  pour devenir aujourd’hui un puissant outil d’injonction. Pis encore, un outil d’injonction contradictoire ! Le refus du Congrès de relever le plafond de la dette contraint le Trésor et le gouvernement américain à enfreindre leurs obligations respectives. Le Congrès se soustrait à la responsabilité budgétaire qui est la sienne soit en n’autorisant pas le Trésor à financer des dépenses qu’il a lui-même votées, soit en reniant ses propres engagements. Ce faisant, il force le Président Barack Obama à s’engager dans une crise politique majeure autour de l’interprétation de la constitution et de la séparation des pouvoirs qu’elle implique.

Dès lors, si les républicains restent aussi fermés sur leurs objectifs de réduction des dépenses publiques, ce ne sont pas six semaines qui vont changer la nature du conflit. Les fondements mêmes des institutions sont attaqués. Au-delà des conséquences dramatiques que cette crise pourra avoir aux niveaux économique et financier, c’est bien tout l’édifice de la puissance américaine qui vacille.

 

 

 


[1] Dette t – Dette t-1 = Solde budgétaire primaire t + taux d’intérêt t * Dette t-1

[2] Le 31 décembre 2012, le plafond était atteint et le 4 février 2013, le Président signait le No Budget, No Pay Act qui supprimait cette contrainte pendant une période de deux mois. Réintroduit le 19 mai sur la base de l’ancien plafond augmenté du montant des nouveaux emprunts réalisés entre le 4 février et le 18 mai 2013, le nouveau plafond a été fixé à 16 699 milliards de dollars. Mais, dès sa remise en application, le nouveau plafond a posé problème puisqu’il correspondait par construction au montant de la dette fédérale existant à cette date.

[3] Le relèvement du plafond signé le 2 août 2011 par le Président dans le cadre du Budget Control Act of 2011 était directement lié à l’engagement de réduire de 1 200 milliards de dollars les dépenses budgétaires à l’horizon de 10 ans, et dont les premiers effets ont commencé en mars dernier avec les coupes automatiques (séquestrations).