Crispation sur le marché du travail

par Marion Cochard

Quatre ans après le début de la crise économique et financière, ses conséquences sur le marché du travail sont encore plus présentes. Malgré le regain de croissance observé en 2010, la hausse du chômage et la dégradation des conditions de travail ne se sont pas résorbées. Pôle emploi compte aujourd’hui 800 000 demandeurs d’emploi de plus que début 2008, et 300 000 demandeurs d’emplois en activité réduite supplémentaires, signe de la hausse du sous-emploi. C’est dans ce contexte qu’intervient l’inflexion marquée par l’emploi salarié au troisième trimestre – 3 600 emplois créés dans le secteur marchand selon l’INSEE, contre 53 600 au deuxième trimestre. Ce chiffre va dans le sens des multiples signes de retournement du marché du travail, dont le déroulement rappelle l’enchaînement récessif de 2008. Depuis avril 2011, on a ainsi assisté à un retournement de l’intérim (graphique), certes modeste au regard de l’effondrement enregistré en 2008, mais tout de même préoccupant dans la mesure où  l’emploi intérimaire est un indicateur avancé de l’évolution de l’emploi marchand. Par ailleurs, l’ensemble des indicateurs fournis par Pôle emploi – hausse du nombre d’entrées pour fin de CDD, baisse des reprises d’emplois, … – vont dans le sens d’une nouvelle crispation sur le marché du travail, et le chômage au sens du BIT est remonté à 9,3% de la population active au troisième trimestre. On voit se remettre en place le scénario qui a conduit à la destruction de plus de 300 000 emplois en 2009 : gel des embauches, non-reconduction des emplois intérimaires et des CDD, reprise du chômage partiel face à la dégradation des perspectives, …

Cette crispation annonce une reprise des destructions d’emplois dès la fin 2011, et ce d’autant que la récession passée n’a toujours pas été complètement absorbée par le marché du travail. Car l’effondrement de l’activité a entraîné une forte chute de la productivité en 2009, conformément au mécanisme du cycle de productivité : face à la dégradation de la conjoncture, les entreprises ont préféré dans un premier temps réduire le temps de travail – via l’extension des dispositifs de chômage partiel, les congés et RTT imposés, la baisse des heures supplémentaires, … – et supporter une dégradation de leurs marges. Elles ont également supprimé progressivement les emplois intérimaires et les CDD, et ce n’est qu’ensuite qu’elles ont procédé à des suppressions d’emplois plus stables. Par la suite, les entreprises profitent généralement du retour de la croissance pour rétablir leur productivité. Or, les entreprises françaises n’ont à ce jour pas rattrapé le retard de productivité accumulé au cours de la crise, et l’écart par rapport à sa tendance de long terme s’élevait encore à 1,7% au deuxième trimestre 2011. Conséquence de cet affaissement durable du cycle de productivité, les taux de marge des entreprises restent dégradés et n’ont à ce jour pas retrouvé leurs niveaux d’avant-crise (cf. graphique). Ils se situent aujourd’hui à un niveau exceptionnellement bas si l’on considère les niveaux observés dans les années 1990 et 2000. Les entreprises françaises se trouvent donc aujourd’hui dans une situation beaucoup moins favorable qu’en 2008 pour résister à la nouvelle chute d’activité qui s’amorce. La situation est particulièrement critique dans l’industrie, où les taux de marge des entreprises demeurent historiquement bas. Elles ne pourront donc procéder à une baisse de la productivité de la même ampleur qu’en 2008 ; les destructions d’emploi s’annoncent donc plus rapides qu’en 2008-2009.

C’est donc la seconde phase d’une même crise que l’on aborde aujourd’hui, dont la physionomie sera différente de la première. Reste à décider les moyens que l’on souhaitera mettre en place pour faire face à ce nouveau retournement, et deux options se présentent. La première résiderait, comme en 2008, dans un ajustement du marché du travail via des destructions d’emplois, essentiellement, en faisant d’abord porter le poids de la crise sur les salariés les plus précaires (CDD et intérimaires). La seconde consisterait à partager l’effort entre les salariés, comme cela a été fait en Allemagne, en réduisant le temps de travail. Une telle orientation nécessite une politique économique volontariste et devrait aller bien au-delà du chômage partiel tel qu’il existe aujourd’hui, qui concerne quasi-exclusivement l’industrie. Outre le maintien en emploi de salariés menacés, cela présenterait l’avantage de conserver dans l’entreprise les compétences qui leurs seront nécessaires lors de la reprise de l’activité. Cela permettrait de limiter la progression du chômage de longue durée et les problèmes d’insertion qui en découlent, et qui peuvent peser sur le potentiel de croissance à long terme. Pour autant, le chômage partiel demeure une solution temporaire et la meilleure politique de l’emploi est encore l’activité. C’est en rompant avec la spirale récessive entretenue par des politiques budgétaires à contretemps que les économies européennes retrouveront le chemin des créations d’emplois.




Après Durban : pour un axe sino-européen

par Eloi Laurent

L’Union européenne doit absolument tenir le cap à Durban et après le sommet : non seulement réaffirmer son ambition climatique mais plus encore la consolider en maîtrisant davantage ses liaisons carbones (voir la note de l’OFCE : L’Union européenne à Durban : tenir le cap), c’est-à-dire l’impact global de son développement économique. Cela suppose de passer, au besoin seule, d’un objectif de 20% de réduction de ses émissions de gaz à effet de serre d’ici à 2020 à un objectif de 30% de ses émissions, plus en conformité avec le but qu’elle a par ailleurs fait sien de limitation du réchauffement terrestre de 2°C par rapport à la période pré-industrielle.

De sa détermination dépend la possibilité d’une transition de l’économie mondiale vers l’économie bas-carbone. Premier marché du monde, l’Union européenne possède en effet un très grand pouvoir sur les politiques écologiques des autres pays de la planète : plus elle sera ambitieuse sur le plan climatique et plus, par effet d’influence et d’entraînement, les autres pays le seront aussi.

Mais la poursuite de cette dé-carbonisation de l’économie européenne implique la réforme et l’articulation cohérente des instruments économiques nationaux et européens.

Pour la France, cela signifie atteindre ses objectifs climatiques (le « facteur 4 », c’est-à-dire la division par 4 de ses émissions d’ici à 2050), en instaurant un signal-prix pour contenir ses émissions diffuses de gaz à effet de serre (provenant du logement et du transport) non incluses dans le marché du carbone européen. En clair, il faudra instaurer une taxe carbone dont il conviendra de préciser les modalités d’insertion dans le système fiscal français mais qui, comme le montre une étude récente de l’OFCE, peut parfaitement générer un double dividende, social et environnemental. Le rapport Perthuis est sur ce point tout à fait clair : accompagnée par un signal-prix, la transition climatique française sera créatrice d’emplois. Cette transition ne doit cependant pas négliger les enjeux de justice sociale, à commencer par le problème urgent de la précarité énergétique.

L’Union européenne doit également réformer au plus vite ses marchés du carbone, dont le signal-prix est aujourd’hui quasi-inopérant (la tonne de CO2 est tombée à 7 euros) et qui pourraient être encore plus affectés par l’issue de la conférence de Durban, comme ce fut le cas après celle de Copenhague. Diverses options existent comme celle d’instituer une banque centrale européenne du carbone.

Enfin, l’instauration d’un tarif carbone aux frontières de l’Union européenne pourrait redonner de la cohérence à la politique climatique de la région en traitant le problème des fuites de carbone et des émissions importées et en fournissant une source de financement au Fonds vert, dont l’architecture pourrait constituer le seul véritable acquis de Durban.

Il y a, au fond, trois raisons fondamentales pour lesquelles l’Union européenne doit confirmer et renforcer son ambition climatique à Durban et plus encore après Durban :

  1. La première tient à la sécurité humaine des Européens : l’UE doit réduire ses émissions de gaz à effet de serre parce que, comme le montre un rapport récent du GIEC, celles-ci sont et seront à l’avenir plus encore, à l’origine de la multiplication des événements climatiques extrêmes sur notre planète. L’Union européenne a subi près de 350 de ces événements au cours de la seule décennie 2000, près de quatre fois plus qu’au cours de la décennie 1980. La canicule de l’été 2003, a elle seule, aura coûté la vie à 70 000 Européens.
  2. La deuxième raison tient à la prospérité économique des Européens. L’UE doit consolider son avantage comparatif écologique et se libérer au plus vite du piège des énergies fossiles. La dépendance européenne à l’égard du carbone n’a fait que se renforcer depuis deux décennies. Le taux de dépendance énergétique des pays membres de l’Union européenne a augmenté en moyenne d’environ dix points de pourcentage ces quinze dernières années pour atteindre 53% en 2007, dont 82% pour le pétrole et 60% pour le gaz, qui représentent à eux deux 60% de toute l’énergie consommée dans l’UE. A l’inverse, le coût économique à court terme (sans inclure les bénéfices de plus long terme) du passage d’un objectif de 20% de réduction des émissions à 30% de réduction d’ici à 2020 est minime, de l’ordre de 0,6% du PIB européen par an (estimation de la Commission européenne).
  3. La troisième raison, peut-être la plus fondamentale, tient au besoin actuel de cohésion politique de l’Union européenne. Il faut aujourd’hui rien moins que reconstruire l’Union européenne qui a été dévastée économiquement et politiquement par la crise globale. La perspective de dépression économique coordonnée proposée actuellement aux citoyens européens par leurs gouvernements signera la dislocation de la zone euro mais aussi par ricochet, on peut le craindre, l’arrêt de la construction européenne, voire son dé-tricotage. La transition écologique peut certes « sauver le climat », mais elle peut aussi sauver l’Europe en lui redonnant un horizon.

Le meilleur espoir de ce qu’il faut déjà appeler « l’après-Durban » réside sans doute dans la constitution d’un axe sino-européen sur le climat : la Chine est en train de prendre conscience que son effet sur le changement climatique n’a d’égal que l’effet du changement climatique sur elle (premier émetteur mondial, elle sera en retour la première victime de ses émissions) ; l’Union européenne peut confirmer, à la suite de la désertion américaine, son rôle de leader climatique global.

Les responsables européens semblent parfois agacés de devoir porter seuls, parmi les pays développés, cette responsabilité et sont fatigués d’essuyer les critiques que l’on réserve à celui qui tient le manche, alors même que l’Union européenne est la seule région du monde à respecter ses engagement de Kyoto, qu’elle est la seule à s’être dotée d’objectifs intermédiaires de réduction de ses gaz à effet de serre (GES), qu’elle est la seule en mesure d’atteindre ces objectifs. Cet agacement européen est déplacé : vu les catastrophes que nous annonce la science, la lutte contre le changement climatique pourrait être la plus grande contribution de l’Europe à l’avenir de l’humanité. Tenir le cap climatique est donc son devoir le plus impérieux. Il se trouve que c’est aussi dans son intérêt.




De Trichet à Draghi : bilan et perspectives

par Christophe Blot et Eric Heyer

Au cours des huit années passées à la tête de la BCE, nous avons connu deux J-C. Trichet (JCT), l’un dogmatique, l’autre pragmatique. Quel sera le visage de son successeur l’Italien Mario Draghi, confronté dès son entrée en fonction à une crise sans précédent de la zone euro ?

Dans les cinq premières années, période d’avant-crise, nous avons connu JCT le dogmatique : banquier central très appliqué, il a respecté à la lettre le mandat qui lui avait été confié, à savoir de maintenir l’inflation proche de 2 %. A l’aune de cet unique critère, considéré comme essentiel par les Allemands, le bilan de JCT est bon puisque qu’au cours de cette période l’inflation moyenne en zone euro fut de 2,1 %. Mais plusieurs critiques peuvent être formulées à l’encontre de son action post-crise : la première réside dans le fait qu’en voulant incarner la monnaie unique et la rendre crédible, JCT a choisi de la rendre « forte » – ce qui est différent de « stable ». Il n’a donc rien mis en place pour piloter le taux de change et s’est satisfait de voir l’euro passer de 1,10 dollar en 2003 à près de 1,50 dollar fin 2007, soit une appréciation de 37 %. Ce dogme de l’euro fort, de la désinflation compétitive, l’a certes aidé à contenir l’inflation mais au détriment de la compétitivité et de la croissance européenne. Une interprétation moins stricte de la stabilité des prix aurait accru l’attention de la BCE portée au taux de change de l’euro, ce qui aurait favorisé le dynamisme de la croissance et de l’emploi dans la zone euro. Ainsi, entre 2003 et 2007, la croissance annuelle moyenne en zone euro aura été 0,6 point inférieure à celle enregistrée aux Etats-Unis ou au Royaume-Uni (2,1 % contre 2,7 %) et le taux de chômage a été supérieur de plus de 3 points (8,4 % en zone euro contre 5,1 % aux E. U. et au R. U.) avec des performances d’inflation comparables. La seconde critique est en lien avec une interprétation stricte de sa politique de lutte contre l’inflation et qui a conduit JCT a une grave erreur de jugement : à l’été 2008, quelques semaines avant la faillite de Lehman Brothers, alors que l’économie américaine était déjà entrée en récession et que les craintes pour l’Europe s’accentuaient, la BCE a décidé une augmentation des taux d’intérêts, par crainte d’un regain de tensions inflationnistes alimenté par les prix des matières premières énergétiques et alimentaires. Or, à l’évidence il n’était pas très lucide de redouter des tensions inflationnistes au moment où l’économie mondiale se préparait à sombrer dans la plus grande crise depuis les années 1930.

Pendant les trois dernières années, période de crise, ce fut JCT le pragmatique : en l’absence de gouvernance européenne, JCT a été un pilier de la réaction européenne face à la crise en discutant d’égal à égal avec des chefs d’Etats et en œuvrant significativement au sauvetage du système financier. A cet égard, et contrairement aux quatre années précédentes, il a pris certaines libertés par rapport au mandat et aux statuts de la BCE en agissant de façon non conventionnelle, notamment au moment de la crise des dettes souveraines. Mais en actionnant des hausses des taux directeurs depuis le début de l’année dans un contexte de chômage de masse et de nette sous-utilisation des capacités de production en zone euro, JCT le pragmatique a commis la même erreur d’interprétation que JCT le dogmatique trois ans auparavant : le regain d’inflation n’étant pas lié à un risque de surchauffe de l’économie européenne mais trouvant son origine dans l’augmentation des prix des matières premières alimentaires et énergétiques, les hausses des taux n’ont aucune incidence sur celui-ci mais, en revanche, fragilisent un peu plus la croissance européenne.

De fait, la BCE a rapidement révisé son diagnostic laissant ainsi la porte ouverte à une baisse rapide des taux d’intérêt. Il est d’ailleurs probable que Jean-Claude Trichet aurait agi plus rapidement s’il n’avait pas été à la fin de son mandat. Ce faisant il a évité d’enfermer son successeur dans un scénario donné, lui laissant donc toutes les possibilités dans ses premiers pas à la tête de la BCE. Mario Draghi a d’ailleurs rapidement mis fin au suspense sur ses intentions puisqu’une baisse des taux d’un quart de point a été annoncée dès sa première réunion le 3 novembre. S’il a bien pris soin de rappeler que la BCE ne s’engageait pas sur les décisions futures, le contexte macroéconomique et financier amène à anticiper au moins une baisse des taux supplémentaire.

Pourtant si la question de la politique des taux d’intérêt est un élément central de la politique monétaire et donc du mandat de Mario Draghi, les défis qui s’ouvrent à lui dépassent largement cet enjeu. Dans le contexte de crise de la zone euro, le programme d’achats de titres de la BCE est au cœur de toutes les attentions et pose la question du rôle de la BCE dans la gouvernance européenne. Cette question recouvre de fait de multiples enjeux cruciaux et interdépendants : le rôle de prêteur en dernier ressort, la coordination entre politique budgétaire et politique monétaire ainsi que les compétences de la BCE en matière de stabilité financière.

La crise actuelle illustre les difficultés inhérentes au fonctionnement d’une union monétaire sans union budgétaire puisque, de fait, cela revient pour tout membre de l’Union à s’endetter dans une monnaie qu’il ne contrôle pas. Même si en temps normal les opérations de politique monétaire aux Etats-Unis conduisent la Réserve fédérale à détenir des titres publics,  – principalement de court terme – la crise a conduit la Banque centrale américaine à amplifier ses achats de titres et à modifier la structure de son bilan en achetant des obligations publiques sur les marchés secondaires. La Banque d’Angleterre a mené des actions similaires en achetant près de 200 milliards de livres de titres obligataires publics[1]. Quant à la Banque du Japon, elle a amplifié ces mesures non conventionnelles qui étaient déjà mises en place pour lutter contre la déflation qui sévit dans l’Archipel depuis la fin des années 1990. Ce faisant, ces banques centrales ont fait pression sur la baisse sur les taux d’intérêt à long terme et elles ont garanti la liquidité de ces marchés, se portant implicitement prêteuses en dernier ressort. Si la BCE s’est également engagée sur ce terrain en achetant plus de 170 milliards d’euros de titres publics (italiens, grecs, portugais et irlandais), l’ampleur du programme d’achat d’actifs (2,1 % de l’ensemble de la dette publique totale des pays de la zone euro) reste inférieur à celui mis en œuvre par la Réserve fédérale et la Banque d’Angleterre qui détiennent respectivement plus de 10,5 % et 16 % de la dette publique émise par leur gouvernement. Surtout, la BCE a pris soin de préciser que ce programme était temporaire, d’un montant limité et destiné à restaurer l’efficacité de la politique monétaire. Dans une tribune récente, Paul de Grauwe compare la stratégie de la BCE à celle d’un chef des armées partant à la guerre tout en déclarant qu’il n’utiliserait jamais tout son potentiel militaire et qu’il rapatrierait les troupes le plus tôt possible, c’est-à-dire sans s’assurer que la victoire finale serait acquise. Une telle stratégie est nécessairement vouée à l’échec. Seul un engagement illimité pourrait mettre fin à la contagion qui frappe les pays de la zone euro en proie à des difficultés budgétaires. Et seule une banque centrale, par la création monétaire, peut offrir une telle garantie. Pourtant, jusqu’ici, les pays européens ont écarté cette voie lors du sommet du 25 octobre tandis que Mario Draghi n’a fait que réitérer la stratégie de la BCE lors de sa première conférence de presse ajoutant même qu’il ne pensait pas qu’un prêteur en dernier ressort soit la solution à la crise que traverse la zone euro. La dimension du FESF restant insuffisante pour enrayer la contagion, tout porte à croire que le rôle de la BCE sera de nouveau au centre des débats. Il faut alors espérer que Mario Draghi et les membres du Conseil des gouverneurs sauront faire preuve de plus de pragmatisme à cette occasion. Il est urgent de reconnaître le rôle de prêteur en dernier ressort de la BCE en faisant de la stabilité financière de la zone euro un objectif explicite de politique monétaire.

Par ailleurs, au-delà du rôle de prêteur en dernier ressort, c’est plus généralement la question de la coordination des politiques économiques qui doit être reposée. L’articulation du policy-mix est en effet un élément central des performances en matière de croissance. Aux Etats-Unis, la complémentarité entre politique monétaire et budgétaire est aujourd’hui évidente puisqu’en faisant pression sur les taux longs, la Réserve fédérale met en œuvre une politique qui assure la soutenabilité de la politique budgétaire en même temps qu’elle favorise son impact sur la croissance. La principale critique à l’égard d’une telle politique souligne qu’elle remettrait en cause l’indépendance de la Banque centrale. Pour autant, rien ne permet aujourd’hui d’affirmer que la Réserve fédérale aurait abandonné la conduite de la politique monétaire au profit du gouvernement. La question ne se pose pas puisque la Banque centrale américaine, comme le gouvernement, poursuivent les mêmes objectifs : croissance, emploi, stabilité des prix et stabilité financière[2]. Ces objectifs sont interdépendants et la zone euro ne pourra retrouver le chemin de la croissance qu’à la condition que les autorités de décisions rament dans la même direction.

Si tous ces enjeux ne sont pas uniquement du ressort de Mario Draghi – une réforme du Traité pourrait renforcer et légitimer ses décisions –, sa position sera néanmoins déterminante. La crise de la zone euro appelle des décisions urgentes et révèlera très rapidement les ambitions et les capacités de son nouveau président.


[1] La BoE vient cependant d’annoncer que son programme d’achat de titres serait progressivement porté à 275 milliards de livres.

[2] Voir « La Fed, la BCE et le double mandat ».




Dispositif Scellier : un bilan contrasté pour un coût élevé

par Sandrine Levasseur

La réaction du « lobby immobilier » à la suite de la suppression du dispositif Scellier au 31 décembre 2012 a été vive. Cette suppression constitue une première – et nécessaire –  étape vers une remise à plat plus générale de toute la politique du logement dont le financement et l’efficacité posent question. Retour sur les aspects positifs et négatifs du « Scellier ». Instauré en 2009, ce dispositif qui succédait à d’autres amortissements du même type (Robien, Borloo, Périssol, etc.) consistait en une réduction d’impôt pour tout acquéreur d’un logement neuf disposé à le mettre en location. Le taux de réduction d’impôt, initialement de 25 % du prix de revient d’un logement (dans la limite d’un investissement de 300 000 euros), a été successivement abaissé à 22 % pour 2011 puis à 14 % pour 2012. Tandis qu’il ne fait pas de doute que le dispositif Scellier a soutenu ces dernières années toute la filière « logement » (de la construction jusqu’à la vente) et a permis d’accroître l’offre de logements (toujours insuffisante), on peut s’interroger sur le coût fiscal d’un tel dispositif.

Rendre à César ce qui est à César : les aspects positifs du dispositif « Scellier »

• L’amortissement Scellier a été un profond adjuvant pour le secteur de la construction et de l’immobilier, notamment au plus fort de la crise. En 2009, selon le Rapport de la Commission des finances, environ 65 000 logements ont bénéficié de l’amortissement Scellier, ce qui a représenté deux-tiers des ventes de logements neufs. En 2010, 77 500 logements ont été concernés, soit plus de 70 % des ventes dans le neuf. A la fin septembre 2011, on estimait à 75 000 le nombre de « Scellier » depuis le début de l’année. Rappelons qu’en 2010 le secteur du bâtiment a généré à lui tout seul 6,3 % du PIB français et employé 7,5 % des effectifs salariés du secteur marchand. C’est sans compter la valeur ajoutée et les emplois dans le secteur des services immobiliers. Il est clair que sans le soutien du « Scellier », la crise économique en France – et ses conséquences sur l’emploi – aurait été plus profonde :

• Dans les zones tendues, là où il y a un manque structurel de logements, les constructions de logements « Scellier » ont clairement permis d’accroître l’offre de logements, en quantité mais aussi en qualité ;

• L’amortissement Scellier a soutenu la construction de logements « verts », puisque la réduction d’impôts était d’autant plus avantageuse que les logements achetés respectaient les normes environnementales (normes BBC) ;

• Il a été ouvert à tous les contribuables alors que le dispositif Robien n’était intéressant que pour les personnes relevant des tranches d’imposition élevées. De ce point de vue, le dispositif Scellier a été plus équitable que les précédents amortissements.

Pour autant, il y a aussi des aspects négatifs associés au dispositif « Scellier ».

Les aspects négatifs du dispositif « Scellier »

Il y a eu, tout d’abord, le problème de la localisation des logements « Scellier », certes aujourd’hui résolu par la mise en place d’une carte des risques locatifs et l’abaissement des plafonds de loyer. Rappelons qu’initialement, le Scellier s’appliquait à tout logement neuf mis en location indépendamment de sa localisation (hors zone C, c’est-à-dire les communes situées dans des agglomérations de moins de 50 000 habitants), le propriétaire-contribuable n’ayant « qu’à louer » en respectant le plafond de loyer fixé par la loi en fonction des zones. Présenté par certains réseaux de commercialisation comme un outil de défiscalisation pur et simple, l’amortissement Scellier s’est traduit dans certains cas par la construction de logements dans des zones où les marchés locatifs étaient inexistants, provoquant gâchis et … dépit des propriétaires n’ayant pas trouvé de locataires ou alors pour un loyer bien inférieur à celui fixé par la loi. En 2011, 170 communes ont alors été classées en risques locatifs par les pouvoirs publics y interdisant ainsi la construction de « Scellier ». En outre, dans certaines zones, les plafonds de loyers ont été abaissés (entre 14 et 26 %) de façon à être davantage en adéquation avec les réalités du marché locatif. Si le problème de la localisation est maintenant résolu, on peut toutefois s’étonner (et déplorer) que la cartographie des investissements locatifs n’ait pas fait l’objet d’un suivi plus tôt et plus régulier. Aujourd’hui, environ 35 % des logements Scellier sont situés dans des zones à risques locatifs et, essentiellement des logements de type F2 ou F3 sont concernés.

L’argument majeur contre le dispositif Scellier (ou tout autre amortissement de ce type) est clairement son coût fiscal, et ce d’autant plus qu’il court sur un certain nombre d’années (par exemple, 9 ans pour le Scellier standard). Ainsi, l’impact budgétaire du dispositif Robien (410 millions d’euros en 2010) ne s’éteindra qu’en 2016 alors qu’il n’est plus en vigueur depuis décembre 2008. Il faudra y ajouter le coût du dispositif Scellier qui, pour une extinction à la fin 2012, continuera malgré tout à peser sur le budget de l’Etat jusqu’en 2021. Selon le Rapport de la Commission des finances, le coût budgétaire du dispositif Scellier a été de 120 millions en 2010 et s’élèvera à 300 millions en 2011. Au total, sur 9 ans, les logements Scellier acquis en 2009 coûteront 3,4 milliards d’euros au budget de l’Etat tandis que ceux acquis en 2010 et 2011 coûteront respectivement 3,9 et 2 milliards d’euros. Notons que le coût de 2 milliards d’euros pour la « génération 2011 » est clairement sous-estimé puisque l’évaluation par la Commission des finances repose sur une anticipation sous-évaluée du nombre de logements Scellier réalisés au regard des dernières données disponibles (47 100 anticipés pour l’ensemble de l’année contre 75 000 réalisés à la fin septembre 2011). A titre de comparaison, la subvention de l’Etat en faveur des organismes de logement social s’est élevée à 1,45 milliard d’euros en 2010, contribuant ainsi au financement de 147 000 logements sociaux. Si logements Scellier et sociaux ne sont pas totalement comparables (et interchangeables), la mise en parallèle du coût budgétaire des uns et des autres interpelle la politique du logement. Et son financement.

Que faire ?

Au vu du coût budgétaire du dispositif Scellier, sa suppression nous semble bien fondée, et ce d’autant plus que la politique du logement de ces vingt dernières années a été plutôt favorable aux propriétaires-bailleurs. Soulignons, en effet, que les propriétaires-bailleurs ont aussi bénéficié indirectement des politiques d’allocation logement en faveur des locataires puisque l’on estime que 50 à 80 % du montant des allocations versées aux locataires ont en fait été répercutés dans les loyers, et donc au bénéfice des propriétaires.

La suppression du dispositif Scellier pose toutefois deux problèmes : celui de l’activité de la filière « construction » et celui du manque structurel de logements. De fait, il y a peu d’espoir que le recentrage du PTZ (prêt à taux 0) sur le logement neuf compense à lui tout seul la baisse de construction due à la suppression du Scellier. Alors, comment résoudre simultanément les deux problèmes ? La poursuite de l’effort en faveur du logement social, amorcé depuis quelques années, nous semble être la meilleure solution pour maintenir à la fois un niveau suffisant de construction et répondre (en partie) aux besoins en logements non satisfaits. Le logement social permettrait en outre de réduire la « cherté » du logement pour les classes sociales les plus modestes. Le coût pour le budget de l’Etat de 60 000 logements sociaux supplémentaires (60 000 étant le nombre annuel moyen de logements ayant bénéficié d’amortissement à l’investissement locatif depuis 15 ans) est estimé à 448 millions d’euros, payable « une fois pour toute ». C’est peu comparé au coût pour l’Etat d’une génération de logements Scellier.

Une politique davantage orientée vers le logement social ne permettra pas pour autant de faire l’économie d’une réflexion plus large sur le logement, ne serait-ce que pour le seul financement du logement social : drainage des fonds sur livrets A, accession sociale à la propriété, politique des loyers, « 1 % logement », politique foncière des collectivités locales, gestion du parc locatif …




R&D à la dérive : les producteurs d’électricité ont-ils disjoncté ?

par Evens Salies

Les efforts technologiques fournis pour répondre aux exigences des politiques environnementales et la libéralisation des marchés de l’électricité sont-ils antinomiques ? En effet, l’évolution depuis trois décennies des dépenses de R&D des producteurs européens d’électricité peut nous faire douter de la capacité de l’Union européenne à atteindre son objectif de réduction des émissions de gaz à effet de serre de 80 à 93% d’ici à 2050 (Commission européenne, COM/2010/0639).

C’est ce que révèle le graphique ci-dessous, où nous avons isolé les dépenses des 15 principaux producteurs. Ce graphique met en évidence un étonnant retournement de tendance concomitant à la vague de libéralisation du secteur, souhaitée par l’Union européenne. Concomitance ne voulant pas dire causalité, nous nous sommes penchés sur l’éventuelle responsabilité de la libéralisation sur ce retournement.

Les dépenses de R&D des producteurs européens d’électricité ont fondu de 70 % entre 2000 et 2007, passant de 1,9 milliard d’euros à 570 millions d’euros environ (chiffres corrigés de l’inflation). Les géants EDF et E.ON, qui représentent les deux plus gros budgets R&D dans le secteur, sont largement responsables de cette baisse. Les dépenses de R&D de l’électricien français ont chuté de 33 % de 2000 à 2007, passant de 568 à 375 millions d’euros. Sachant que les charges de R&D sont majoritairement des charges de personnel, le lecteur ne s’étonnera pas d’apprendre que, dans le cas d’EDF, le nombre de salariés affectés à la R&D (chercheurs et personnel d’accompagnement technique et administratif) a été réduit d’environ un quart depuis 2007, sans que nous puissions précisément quantifier cette baisse par type d’activité.

Comment les producteurs peuvent-ils relever le défi technique des énergies alternatives avec une dépense de R&D si faible ? Certains pourraient penser que la situation n’est pas aussi dramatique que le laisse supposer le graphique ci-dessus. En effet, les dépenses de R&D des grands groupes de l’électricité ne représentent que la partie congrue du total, autour de 10 %, l’essentiel étant réalisé par des équipementiers et des laboratoires publics. En se penchant sur les chiffres de l’ensemble des dépenses privées, on constate une part relativement croissante depuis l’année 2000 de celles destinées non seulement à accroître l’efficience énergétique, mais aussi de celles destinées à la production d’électricité à partir de sources d’énergies renouvelables. Ceci est la conséquence de nombreuses aides en faveur de l’innovation (mesures de rachat de l’électricité « verte », financement de projets réunissant des partenaires publics/privés, etc.), sans oublier le crédit d’impôt-recherche dont bénéficie d’ailleurs EDF.

Il vaut mieux cependant attendre avant de se réjouir du déplacement susmentionné de l’activité d’innovation environnementale des producteurs vers les équipementiers dans la mesure où la concurrence risque d’avoir pour effet de peser sur la capacité de ces premiers à acheter ces innovations. La question du pourquoi de la chute des dépenses de R&D reste donc pertinente. Etaient-elles anormalement élevées dans le passé, lorsque les producteurs jouissaient du statut de monopole public ? On peut cependant trouver des raisons objectives à leur baisse, en commençant par la libéralisation des marchés dans l’Union européenne qui, comme l’ont montré plusieurs études, est l’événement déclencheur de ce changement radical dans la politique d’innovation des producteurs d’électricité [1].

La thèse défendue dans ces études est que l’accroissement prévisible de la concurrence, à la suite de l’ouverture des marchés, rend la valeur des revenus futurs des producteurs plus incertaine. L’argument avancé pour soutenir cette thèse est que certains projets de recherche orientés vers des objectifs d’intérêt public (ceux qui permettront de réduire les émissions) ne confèrent pas à court terme des réductions de coûts qui seraient profitables aux producteurs. Les producteurs se sont recentrés sur leur cœur de métier et ont abandonné les programmes de recherche pour lesquels ils n’ont pas d’avantages tangibles, notamment en termes de brevets. En Europe, les projets d’innovation environnementale sacrifiés continuent, en revanche, à être développés chez des équipementiers (Vestas pour l’éolien, par exemple). Quand aux recherches dans l’électronucléaire, elles sont accaparées par les prestataires de recherche comme Areva ou Siemens. Les producteurs tendent à leur substituer des programmes autour de la maîtrise de la demande d’énergie ou de l’amélioration d’efficience énergétique qui requièrent des temps de recherche moins longs. Il faut noter que la nature de bien public de l’innovation rend prudents les producteurs qui devraient supporter le coût de projets de recherche dont ils ne seront pas seuls à récolter les bénéfices. Cela favorise le comportement de « passager clandestin » de certains et conduit donc à un sous-investissement en R&D au niveau agrégé dans le secteur.

De manière intéressante, on constate que ce décrochage succède à une accélération des dépenses de R&D avant la période de libéralisation. Ce fait d’abord observé aux Etats-Unis, s’observe clairement en Europe si l’on se penche sur les dépenses de R&D en niveau. Dès 1996, date à laquelle fut votée la directive contenant les règles communes pour le marché intérieur de l’électricité, la baisse des dépenses suit une hausse plus forte que celle observée, en moyenne entre 1980 et 1995.

Cependant, l’instauration de règles de marché n’explique pas tout. S’est opérée une restructuration/fragmentation du secteur avec ouverture du capital qui n’est pas sans conséquences sur l’innovation. De manière similaire à ce qu’on a pu observer dans d’autres secteurs comme les TIC, le comportement des grands groupes de l’électricité a été de s’endetter – nécessairement au détriment des dépenses de recherche et d’autres investissements – en réalisant des opérations de croissance externe. Les firmes réorganisent leur activité de recherche en les externalisant. L’exemple en France est celui d’EDF Energies Nouvelles, 100 % filiale d’EDF depuis le mois d’août 2011. L’organisation industrielle qui prévaut aujourd’hui dans le secteur de l’énergie électrique est un oligopole avec frange concurrentielle (voir encadré). Bien que soumis à une séparation comptable de leurs activités, les principaux producteurs historiques restent verticalement intégrés de la production à la commercialisation.

Cette fragmentation/restructuration renvoie à une hypothèse de recherche bien connue des économistes sur l’avantage des grandes entreprises en termes d’innovation : l’hypothèse schumpétérienne [2]. Formellement, il s’agit de savoir si l’intensité de R&D, c’est-à-dire le ratio entre les dépenses de R&D et une variable de taille (l’actif du bilan, par exemple), est corrélée positivement à la taille. Nous avons pu montrer ce lien pour un échantillon des 15 principaux producteurs européens d’électricité pour la période 1980-2007 [3] . Or, ce résultat est largement contingent à la période étudiée, durant laquelle la plupart des producteurs étaient protégés de l’entrée et de toute pression concurrentielle sur le territoire où ils exerçaient leur activité en tant qu’entreprises publiques désignées alors « monopoles naturels ».

Cette position leur conférait au moins trois avantages qui ont maintenant disparu. Tout d’abord, une sorte de droit de préemption sur l’utilisation des innovations fournies par les constructeurs d’équipements, ou de leurs propres innovations, craignant moins ainsi d’être imités. Pour chaque entreprise, les possibilités de réplication étaient limitées à une zone d’activité bien précise, généralement le territoire national, permettant de répartir les coûts liés à l’innovation sur tous les consommateurs domestiques. De plus, étant certains de ne pas perdre de clients, les opérateurs historiques pouvaient prendre le risque de lancer des projets de recherche fondamentale. Enfin, la réglementation des tarifs assurait un niveau de recette prévisible.

On peut donc penser que l’effet schumpétérien d’appropriation de la rente a dominé l’effet négatif sur l’incitation à innover dû au manque de concurrence réelle ou potentielle. Une fois le secteur ouvert à la concurrence, certains des avantages susmentionnés ont disparu. La grande majorité des clients reste fidèle à cause de coûts de migration importants, mais une partie croissante de l’électricité produite est vendue sur des marchés de gros peu régulés, aux prix volatils. L’hypothèse schumpétérienne pourrait donc disparaître. La concurrence serait donc en train de nuire à l’innovation induite par les dépenses de R&D.

Oligopole de producteurs avec frange concurrentielle

Dans le secteur européen de l’énergie électrique, il s’agit d’un petit nombre de gros producteurs (l’oligopole) qui détiennent une vaste part de marché, pendant qu’un grand nombre de petites entreprises (la frange concurrentielle) détiennent, chacune, une petite part du marché résiduel. Contrairement à l’idée que l’on se fait de la concurrence, la frange peut avoir une influence sur les prix de gros. En effet, l’électricité ne se stockant pas, un producteur sollicité par le transporteur responsable de l’équilibre production-consommation, peut offrir les MWh d’une centrale dont le coût marginal de génération est faible à un prix supérieur à ce coût. C’est le cas du producteur de la centrale marginale qui, en période où la demande butte sur les capacités de production (la pointe), est sollicité pour assurer l’équilibre global en dernier recours.

[1] L’étude de Kammen, D.M. et R. M. Margolis (Underinvestment: the energy technology and R&D policy challenge, Science, Energy–Viewpoint, n° 285, 1999, pp. 690-692) avait anticipé cette situation pour les Etats-Unis. L’étude de P. Sanyal (The effect of deregulation on environmental research by electric utilities. Journal of Regulatory Economics, Vol. 31, n° 3, 2007,  pp. 335-353) est la première à montrer de manière économétrique le rôle de la libéralisation des marchés de l’électricité sur la baisse des dépenses de R&D.

[2] Le lecteur pourra se référer à http://fr.wikipedia.org/wiki/Destruction_cr%C3%A9atrice.

[3] A test of the Schumpeterian hypothesis in a panel of European electric utilities, Document de Travail de l’OFCE, n° 2009-19, http://www.ofce.sciences-po.fr/pdf/dtravail/WP2009-19.pdf.




A quels nouveaux plans de rigueur européens doit-on s’attendre en 2012 ?

par Eric Heyer

Afin de respecter les engagements français vis-à-vis de Bruxelles d’un déficit des APU de 4,5 % du PIB en 2012, le Premier ministre français, François Fillon, vient d’annoncer un nouveau plan de restriction budgétaire de 7 milliards d’euros. Ce plan, annoncé le 7 novembre, sera-t-il suffisant ? Certainement pas ! Alors à quels nouveaux plans de rigueur doit-on s’attendre dans les mois à venir et quelle incidence auront-ils sur la croissance en 2012 ?

Début octobre 2011, nous indiquions dans notre dossier de prévisions , entre autres choses, qu’à projets de lois de finance connus et votés, aucun grands pays européens ne respecterait ses engagements de réduction de déficit.

Cela sera notamment le cas pour l’Italie et le Royaume-Uni qui pourraient être confrontés à un écart compris entre 1,5 et 2 points entre le déficit public final et leur engagement. Dans le cas de la France et de l’Espagne, l’écart serait respectivement de 0,6 et 0,7 point. Seule l’Allemagne serait très proche de ses engagements (tableau 2).

Contrairement aux années antérieures, le respect de ces engagements apparaît probable : dans un contexte financier incertain, être le seul État à ne pas respecter sa promesse de consolidation budgétaire serait sanctionné immédiatement par un renchérissement de ses conditions financières sur le remboursement de sa dette.

Cela nécessitera alors l’adoption de nouveaux plans d’austérité dans les mois à venir. Mais en tentant de réduire leurs déficits prématurément, trop rapidement et de façon synchrone, les gouvernements des pays européens prennent le risque d’un nouveau ralentissement de l’activité. En effet, comme nous l’avons signalé dans une étude récente , la mise en place dans un contexte de basse conjoncture de politiques de rigueur dans l’ensemble des pays européens et agissant dans une situation de persistance de la « trappe à liquidité » concourt à la formation d’un multiplicateur fort, proche de l’unité.

A combien de milliards d’euros s’élèveront les prochains plans d’économies budgétaires ? Quelles incidences auront-ils sur la croissance économique ? Plusieurs cas de figure ont été étudiés.

Cas n°1 : Chacun des pays respecte seul son engagement
De manière à isoler l’impact sur la croissance du plan d’économies national et de ceux des partenaires, nous avons supposé que chaque pays respecte, seul, son engagement. Sous cette hypothèse, l’effort serait considérable en Italie et au Royaume-Uni qui présenteraient de nouveaux plans de rigueur de respectivement 3,5 et 2,8 points de leur PIB (soit 56 et 48,7 milliards d’euros). La France et l’Espagne devraient mettre en œuvre un plan de rigueur deux à trois fois inférieur, d’environ 1,2 point de PIB, représentant respectivement 27 et 12,1 milliards d’euros. Enfin le plan d’économies allemand serait le plus faible, avec 0,3 point de PIB (7 milliards d’euros) (tableau 1).

Ces différents plans de rigueur nationaux, pris isolément, auraient un impact non négligeable sur la croissance des pays étudiés. A l’exception de l’Allemagne qui continuerait à avoir une croissance positive en 2012 (0,9 %), une telle stratégie plongerait les autres économies dans une nouvelle récession en 2012, avec un recul de leur PIB allant de -0,1 % pour l’Espagne à -2,9 % pour l’Italie. La France connaîtrait une baisse de son activité de -0,5 % et l’économie britannique de -1,9 %( tableau 2).

Cas n°2 : Tous les pays de l’Union européenne respectent leur engagement

Bien entendu, si l’ensemble des grands pays européens venaient à adopter la même stratégie en même temps, alors l’effort d’économie serait supérieur. Il s’élèverait à près de 64 milliards d’euros en Italie et de 55 milliards d’euros au Royaume-Uni, représentant respectivement 4 et 3,2 points de PIB. Cet effort supplémentaire serait d’environ 2,0 points de PIB pour la France et l’Espagne (respectivement 39,8 et 19,6 milliards d’euros) et de 0,9 point de PIB pour l’Allemagne (22,3 milliards d’euros). Au total sur ces 5 pays étudiés, l’effort cumulé d’économie représenterait plus de 200 milliards d’euros en 2012.

Le choc sur l’activité de ces pays serait alors puissant : il provoquerait en 2012 une récession violente pour certains pays avec une baisse du PIB de 3,9 % en Italie (contre -5,1 % en 2009), de 2,6 % au Royaume-Uni (contre -4,9 % en 2009). La récession serait proche en France (-1,7 %) et en Espagne (-1,5 %) alors que le PIB allemand baisserait légèrement (-0,3 %).

Cas n°3 : Seuls les pays de la zone euro respectent leur engagement

Le Royaume-Uni ayant déjà mis en place un plan de rigueur important, et compte tenu du fait que leur contrainte en termes de déficit est plus souple que celle des pays de la zone euro, nous avons supposé que seuls les grands pays de la zone euro respectaient leurs engagements de déficit public. Dans ces conditions, l’effort cumulé d’économie représenterait plus de 130 milliards d’euros en 2012 dont près de la moitié serait du seul fait de l’Italie (61,7 milliards).

Le choc récessif serait alors concentré sur la zone euro avec une récession dans tous les pays étudiés à l’exception de l’Allemagne (0,1 %). L’économie britannique éviterait un nouvel épisode récessif (0,5 %) mais elle ne remplirait pas son objectif de déficit public fixé à 6,5 points de PIB, puisque ce dernier s’établirait à 8,2 points de PIB.




Plus rien ne s’oppose à la nuit

par Xavier Timbeau

Le 7 novembre 2011, le gouvernement a  annoncé un plan de restriction budgétaire qui prend acte d’un « ralentissement de la croissance mondiale ». Il  fait suite à la révision fin octobre 2011 du scénario de croissance utilisé dans le projet de loi de finance 2012, présenté fin septembre aux assemblées. Au lieu d’anticiper 1,75 % de croissance annuelle du PIB en 2012, l’hypothèse retenue aujourd’hui est de 1 %. La logique semble claire : face à des vents mauvais, soumis à un objectif de réduction des déficits publics (4,5 % du PIB en 2012 après 5,2 % en 2011) le gouvernement réagit rapidement en amendant sa stratégie de finances publiques afin d’éviter le scénario catastrophe que l’Italie est en train de vivre. La crise des dettes souveraines européennes impose de conserver la confiance des marchés financiers.

Une combinaison de hausse de l’imposition et de restriction de dépenses devrait réduire ex ante le déficit public de 7 milliards d’euros en 2012 qui s’ajoutent à ceux annoncés en août 2011, 10,4 milliards d’euros en 2012, soit au total 17,4 milliards d’euros (0,9 % du PIB). L’impulsion (i.e. la variation du déficit public primaire structurel) serait en 2012 de -1,5 % du PIB en 2012 après avoir été de -1,4 % en 2011, ce qui constitue un effort sans précédent dans l’histoire budgétaire de la France.

Tout pousse à se résigner à cette logique météorologique et ménagère de la conduite de la politique économique. La croissance nous fait défaut, il faut être moins prodigue et réduire le train de vie de l’Etat et des administrations publiques. Mais, ce faisant on s’enferme dans une spirale récessive particulièrement dangereuse. La réduction de la croissance par rapport aux estimations initiales ne tombe pas du ciel. Elle résulte d’abord de la restriction budgétaire déjà engagée en 2011. C’est le jeu du multiplicateur budgétaire qui impose sa logique, au moins à court terme. Une restriction budgétaire amoindrit la croissance du PIB, dans une proportion égale au multiplicateur budgétaire. C’est pourquoi le scénario de croissance à 1 % était parfaitement prévisible (et aurait dû être intégré dans le projet de loi de finance 2012, voir la prévision de l’OFCE). On retient habituellement un multiplicateur budgétaire à un an de l’ordre de 0,7 (qui varie cependant selon les mesures prises) parce que la France est une « petite » économie ouverte (voir nos analyses ou les travaux du FMI).

Dans une situation de trappe à liquidité et de cycle bas, le multiplicateur budgétaire peut être plus élevé, mais c’est en limitant l’analyse à une petite économie que l’on commet l’erreur la plus grave. Au niveau de la zone euro ou de l’Union européenne, le multiplicateur budgétaire n’est plus celui d’une « petite » économie ouverte (0,7), mais celui d’une grande économie « peu » ouverte (supérieur à 1). Or tous, ou presque tous les pays de l’Union européenne s’engagent dans des plans de restriction budgétaire, suivant la même logique imparable de la rigueur ; ainsi lorsqu’on fait le bilan de ces politiques à l’échelle européenne et non plus nationale, on comprend pourquoi la croissance en Europe sera faible voire négative. En effet, comme empêché par des œillères, chaque pays européen constate que son scénario de croissance ne se réalisera pas et rajoute de la restriction à la restriction. Mais, lorsque le multiplicateur est élevé, la réduction du déficit public est très inférieure à sa baisse ex ante, du fait d’une croissance économique moins forte : en Europe, pour un multiplicateur budgétaire de 1,3, un point de réduction des déficits ex ante induit une réduction ex post de 1/3 point du déficit public. Une autre manière de le dire : pour tenir un objectif donné de déficit, il faut  faire un effort trois fois plus important que ce que l’arithmétique simple indique.

Après le plan de rigueur supplémentaire de novembre  2011, on peut s’attendre à ce qu’il y en ait d’autres. Pour tenir les engagements des gouvernements européens annoncés aujourd’hui, il faudra une récession en Europe en 2012. Tant que l’on fixera comme objectif des réductions de déficit public, tant que l’on « oubliera » les effets sur la croissance et donc sur les déficits publics de ces restrictions, on ira de mauvaises nouvelles en mauvaises nouvelles. En continuant de se référer aux rares exemples de restrictions qui ont fonctionné – le Canada ou  les pays scandinaves des années 1990 –, on se trompe radicalement de diagnostic : l’Union européenne est une grande économie peu ouverte ; une dévaluation compétitive ne viendra pas compenser les restrictions budgétaires ; la politique monétaire ne stimulera pas suffisamment l’économie pour éviter le pire. La politique macroéconomique ne se conduit pas régionalement, mais globalement.

Sans croissance, les dettes publiques paraîtront insoutenables à des marchés financiers qui sont à la fois juges et victimes de l’insécurité des dettes publiques. Pourtant, les pays européens s’engagent dans une phase sans précédent de contrôle de ses finances publiques (avec succès, comme l’attestent les impulsions négatives en 2011, réalisées et celles annoncées pour 2012). De plus, l’Europe est dans une situation budgétaire globale préférable à celle des autres pays développés, ce qui donne à cette crise des dettes souveraines un parfum de renoncement catastrophique. L’alternative est de relâcher la pression des marchés sur le financement des Etats européens en  franchissant le pas de la solidarité européenne sur les dettes publiques. Cette solidarité pourrait être garantie par la Banque centrale européenne ou n’importe quelle institution ad hoc. Au final, il faudrait « monétiser » les obligations souveraines lorsque cela est nécessaire, sans limite, afin que chacun soit sûr que jamais un titre public ne fera défaut. Alors, la stratégie budgétaire de retour à l’équilibre pourrait être conduite avec un objectif de moyen terme, et non plus de court terme et on pourrait espérer sortir d’une récession, dont pour l’instant on ne voit pas la fin.




La France et la zone euro suspendues au-dessus de la récession

par Hervé Péléraux

L’actualisation des indicateurs avancés pour la France et la zone euro à la fin octobre révèle l’extrême fragilité de ces économies, en surplomb au-dessus de la récession. La stagnation du PIB attendue en France au troisième trimestre, suivie d’un possible recul de 0,2 % au quatrième, peut préfigurer la survenue d’une récession au tournant de 2011-2012, alors même que l’optimisme était encore de mise avant l’été. La situation n’est guère meilleure pour l’ensemble de la zone euro, avec une stagnation anticipée du PIB dans la seconde moitié de 2011. La crise des dettes souveraines, démarrée en mai 2010 avec la révélation de la crise grecque, aura finalement eu raison de la résistance, un peu surprenante, des économies dans la seconde moitié de 2010 et au premier trimestre 2011.

L’indicateur avancé pour la France :

http://www.ofce.sciences-po.fr/indic&prev/indicateurfr.htm?current=five&sub=c

L’indicateur avancé pour la zone euro :

http://www.ofce.sciences-po.fr/indic&prev/indicateureuro.htm?current=five&sub=c




Les banques centrales peuvent-elles influencer les anticipations des agents privés ?

par Paul Hubert

Comment les prévisions d’une banque centrale peuvent-elles influencer les anticipations des agents privés et quelles en sont les raisons ? A quelques heures des conférences de presse de Ben Bernanke et de Mario Draghi, voici quelques éléments d’explication. 

L’attribution du Prix Nobel d’Economie 2011 à Thomas Sargent et Chris Sims pour « leurs recherches empiriques sur les effets causaux en macroéconomie » met en lumière le rôle primordial des anticipations des agents privés dans les décisions de politique économique. Parce que les anticipations d’inflation et de croissance des entreprises et des ménages affectent leurs décisions d’investissements, de consommation, d’épargne, et les revendications salariales, elles sont au cœur de l’interaction entre les politiques économiques et leurs effets.

Depuis les années 1980, l’instrument principal de la politique monétaire est le taux d’intérêt directeur de la banque centrale. Les variations de celui-ci affectent l’économie et permettent à la banque centrale d’arbitrer entre croissance économique et inflation via différents canaux : le canal du taux d’intérêt, le canal du crédit, le canal du prix des actifs, le canal du taux de change et enfin le canal des anticipations. En effet, dans le cadre de leurs décisions quotidiennes, les entreprises et les ménages intègrent de nombreuses anticipations sur la consommation, l’investissement, les capacités de production futures, ainsi que les salaires et prix futurs, etc. Ces anticipations jouent ensuite un rôle central dans la détermination des variables économiques. Les variations du taux directeur envoient donc des signaux sur l’état futur de l’économie ainsi que la politique monétaire future, et modifient les anticipations que forment les agents privés.

Cependant, le canal des anticipations est incertain et les variations de taux directeur peuvent être comprises de différentes manières : les agents privés peuvent réagir à une baisse du taux directeur en consommant et investissant plus, ce qui peut signaler que la croissance sera plus forte dans le futur et ce qui accroît leur confiance et leur volonté de consommer et investir. A l’opposé, les mêmes agents peuvent interpréter que la croissance présente est plus faible que prévue, poussant la banque centrale à intervenir, ce qui réduit leur confiance, donc leur volonté de consommer et d’investir… Depuis les années 1990, les banques centrales utilisent donc en complément du taux d’intérêt des effets d’annonce pour clarifier leurs intentions futures. La communication semble ainsi être devenue un outil de la politique monétaire et deux types peuvent être distingués. La communication qualitative comprend les discours et interviews, tandis que la communication quantitative correspond à la publication des prévisions d’inflation et de croissance de la banque centrale.

Dans un récent document de travail, nous analysons l’effet des prévisions d’inflation et de croissance publiées trimestriellement par les banques centrales du Canada, de Suède, du Royaume-Uni, du Japon et de Suisse. A l’aide d’enquêtes réalisées par Consensus Forecasts auprès de prévisionnistes professionnels des secteurs financiers et non-financiers, nous montrons que les prévisions d’inflation des banques centrales de Suède, du Royaume-Uni et du Japon sont un déterminant significatif des prévisions d’inflation des agents privés. Autrement dit, la publication des prévisions d’inflation de ces banques centrales entraîne une révision des prévisions des agents privés. Il s’avère en outre que le contraire n’est pas vrai : les prévisions de la banque centrale ne réagissent pas aux prévisions des agents privés.

Deux raisons peuvent expliquer cette influence de la banque centrale : premièrement, les prévisions d’inflation de la banque centrale pourraient être de meilleure qualité et il est rationnel pour les agents privés d’être influencés par celles-ci afin d’améliorer leurs propres prévisions des variables macroéconomiques. Deuxièmement, les prévisions d’inflation de la banque centrale peuvent influencer les agents privés parce qu’elles transmettent des signaux, soit sur les futures décisions de politique monétaire, soit sur l’information privée dont dispose la banque centrale. Ce type d’influence est indépendant de la performance de prévision de la banque centrale.

Afin de déterminer les sources de cette influence, nous évaluons la performance de prévision relative des banques centrales et des agents privés et testons si l’influence des anticipations privées par la banque centrale dépend de la qualité de ses prévisions. Les estimations montrent que seule la banque centrale de Suède, au sein de notre échantillon de banques centrales, produit de façon significative, régulière et robuste des prévisions d’inflation de meilleure qualité que celles des agents privés. Nous trouvons en outre que le degré d’influence dépend de la qualité des prévisions d’inflation. Autrement dit, les prévisions d’inflation à un horizon court (1 ou 2 trimestres), dont une analyse historique des performances de prévisions nous apprend qu’elles sont de faible qualité, n’influencent pas les agents privés tandis que celles de meilleure qualité les influencent. De plus, les prévisions d’inflation à plus long terme de la banque centrale de Suède réussissent à influencer les anticipations privées même lorsque leur qualité est faible et les influence d’autant plus que leur qualité est meilleure.

Alors que les banques centrales du Royaume-Uni, du Japon  et de Suède réussissent toutes les trois à influencer les anticipations privées via la publication de leurs prévisions macroéconomiques, il apparaît que les raisons de cette influence sont différentes. Les deux premières utilisent la transmission de signaux, tandis que la banque centrale de Suède utilise les deux sources possibles pour influencer les anticipations privées : à la fois sa meilleure capacité de prévisions et l’envoi de signaux. La conséquence de ces résultats est que la publication par la banque centrale de ses prévisions macroéconomiques pourrait faciliter et rendre plus efficace la mise en place de la politique monétaire désirée en guidant les anticipations privées. Ce canal de transmission, plus rapide car il ne repose que sur la diffusion de prévisions, pourrait permettre ainsi à la banque centrale d’affecter l’économie sans modification de son taux d’intérêt directeur et peut effectivement constituer un instrument supplémentaire.




Politique monétaire : l’histoire sans fin

par Christophe Blot et Christine Rifflart

Les banques centrales disposent-elles encore de marges de manœuvre pour contrer les pressions déflationnistes aux Etats-Unis et éviter à la zone euro de sombrer dans une nouvelle crise financière comparable à celle de 2008 ?

Malgré la baisse des taux directeurs des banques centrales à des niveaux planchers compris entre 0 et 0,5 % (1 % pour la BCE avant les deux hausses de 0,25 % en avril et juillet dernier), les politiques monétaires sont restées sans effet sur les conditions de financement des agents privés. Pourtant, depuis le début de l’été, les mauvaises nouvelles s’enchaînent de part et d’autre de l’Atlantique et nourrissent un pessimisme accru. La crise de confiance dans la zone euro accroît le risque de blocage et l’absence de reprise du crédit aux Etats-Unis, du fait notamment de taux privés qui peinent à baisser, montre que la trappe à liquidité qui s’est mise en place à la suite de la crise financière de 2008 n’est toujours pas refermée. Cette situation alimente la crise de liquidité que l’on peut observer sur les marchés interbancaires à travers les spreads (graphique 1) et les enquêtes auprès des banques. Même si elles n’ont pas encore atteint les sommets observés lors de la faillite de Lehman Brothers aux Etats-Unis, de telles tensions illustrent les craintes sur la fragilité des banques européennes du fait de leur exposition aux dettes des Etats membres de la zone euro et montrent combien la situation en matière de dette souveraine pèse sur la stabilité du système bancaire européen.

La trappe à liquidité renvoie à une situation où le taux d’intérêt atteint un niveau plancher et où la politique monétaire ne parvient plus à stimuler l’économie par le recours aux instruments conventionnels. L’image de la trappe correspond à l’idée que toute monnaie supplémentaire émise par la banque centrale est immédiatement absorbée – comme si elle tombait dans une trappe – par une demande de monnaie qui devient infiniment élastique au taux d’intérêt. Monnaie et titres deviennent parfaitement substituables. Pour contrer cet effet, les banques centrales peuvent recourir aux mesures dites non conventionnelles. Par des programmes d’achats de créances publiques ou privées, elles tentent d’avoir une prise directe sur la structure par terme des taux d’intérêt. Elles fournissent en quantité abondante de liquidités au système bancaire afin d’encourager le crédit. Elles peuvent également chercher à influencer les anticipations d’inflation et de taux d’intérêt futurs. Une hausse de l’inflation anticipée permet de réduire le taux d’intérêt réel ex-ante. De même, l’engagement sur une politique de taux faibles à un horizon long peut redonner confiance aux agents privés et les inciter à consommer et investir.

Consciente des risques encourues, la BCE a décidé, à l’issue du Conseil des Gouverneurs qui s’est tenu le 6 octobre 2011, de reconduire des opérations exceptionnelles de refinancement à long terme et de lancer un second programme d’achats d’obligations sécurisées. Ces annonces rejoignent celle de la Banque d’Angleterre le même jour (voir le compte rendu de la réunion du 6 octobre 2011) prévoyant une nouvelle vague d’achats d’obligations publiques pour un montant de 75 milliards de livres sterling. De son côté, la Banque du Japon continue également de relever régulièrement son plafond d’achats de titres qui atteint désormais 15 000 milliards de yens (soit 3,1 % du PIB).

Pour autant, ces mesures sont loin des actions menées par la Réserve fédérale pour faire pression sur les marchés financiers. Première à avoir rassuré les marchés sur le maintien du taux des Fonds fédéraux entre 0 et 0,25 % aussi longtemps que nécessaire, elle a complété son action sur les anticipations de taux courts futurs en annonçant le 9 août qu’elle maintiendrait à ce niveau au moins jusqu’à la mi 2013. Mais surtout, un nouveau programme d’achat de titres a été lancé le 21 septembre 2011 (dit QE3) (voir le compte rendu). Le plan prévoit l’achat, d’ici juin 2012, de 400 milliards de dollars de titres du Trésor ayant une durée de vie restante entre 6 et 30 ans contre des titres ayant une durée de vie restante inférieure à 3 ans.

Cette action, destinée à peser sur les taux des marchés financiers, s’inscrit dans une politique initiée dés le début de l’année 2009, et visant d’abord les taux hypothécaires (via les MBS), puis l’ensemble de la chaîne de taux privés. En achetant des titres publics de différentes maturités sur le marché secondaire, la Réserve fédérale espère peser suffisamment sur les volumes pour réduire les rendements offerts et conduire les investisseurs à reporter leurs achats vers des titres plus longs, et plus risqués. Pour être efficaces, ces achats doivent être de grande ampleur. C’est pourquoi la Fed n’a pas hésité à accroître son bilan et acheter depuis 2008, l’équivalent de 7,4 % du PIB en titres publics. La Banque du Japon et la Banque d’Angleterre, qui détenaient un portefeuille de titres publics déjà élevé en 2008, ont acquis, malgré tout, pendant la crise l’équivalent de 4,6 % et 2,2 % du PIB de titres publics supplémentaires. La BCE ne s’est pas mise dans cette position. En intervenant sur les marchés pour acheter des titres grecs ou italiens, la BCE a avant tout cherché à préserver la stabilité financière eu égard à la forte exposition du système bancaire européen sur les titres de dette souveraine et à assurer, dans l’attente d’une solution pérenne, la viabilité de la zone euro. Cette position prudente, voire trop prudente, lui donne donc l’opportunité d’amplifier, à l’image des autres banques centrales, sa politique d’achat de titres afin de peser plus largement sur les taux d’intérêt publics à long terme de l’ensemble de la zone euro (graphique 2).

Si tel était le cas, cette stratégie permettrait également une meilleure coordination des politiques économiques. L’évolution des taux d’intérêt à long terme conditionne l’efficacité de la politique budgétaire, en réduisant d’une part les effets d’éviction financière et en assurant la soutenabilité des trajectoires de dette publique qui dépend crucialement de l’écart entre le taux de croissance du PIB et le taux d’intérêt. De fait, ces mesures d’assouplissement quantitatives aux Etats-Unis et au Japon accompagnent la mise en œuvre de nouveaux plans de relance budgétaire. Si le gouvernement britannique a fait le choix d’une forte restriction budgétaire, il bénéficie malgré tout des actions entreprises par la Banque d’Angleterre pour atténuer l’impact récessif des plans d’austérité. Comparativement à ses homologues, la zone euro dispose donc de marges de manœuvre à la fois en termes de baisses des taux d’intérêt (après les deux hausses à contre-pied d’avril et juillet derniers) mais également afin d’améliorer la coordination entre politiques monétaire et budgétaire.

Ce texte fait référence à une étude sur la politique monétaire jointe à l’analyse de la conjoncture et la prévision à l’horizon 2011-2012 que le département analyse et prévision a présentées le vendredi 14 octobre 2011. Les analyses sont disponibles sur le site internet de l’OFCE.