Encadrement des loyers : l’ALUR suffit-elle ?

par Sabine Le Bayon, Pierre Madec et Christine Rifflart

Le 10 septembre 2013, a débuté au Parlement la discussion du projet de loi “Accès au Logement et un Urbanisme Rénové” (ALUR). Cette loi va se traduire par un interventionnisme plus prononcé sur le marché du logement locatif privé et vient compléter le décret, entré en vigueur à l’été 2012, sur l’encadrement des loyers en zones tendues et qui avait marqué une première étape dans la volonté du gouvernement d’enrayer la hausse des dépenses de logement des locataires[1].

La volonté du gouvernement d’encadrer les dérives du marché locatif privé devrait avoir rapidement un impact pour les ménages qui s’installent dans un nouveau logement. Pour les locataires en place, le processus devrait être plus long. Au final, dans une agglomération comme Paris, on peut s’attendre, si les loyers les plus élevés diminuent au niveau du plafond défini par la loi, à une baisse de 4 à 6% du loyer moyen. Si, par un effet d’entraînement, cela se répercute ensuite sur l’ensemble des loyers, l’impact désinflationniste sera plus fort. En revanche, le risque d’une dérive haussière sur les plus bas loyers n’est pas à écarter, même si le gouvernement s’en défend. Enfin, l’impact de la loi dépendra en grande partie du zonage défini par les observatoires des loyers dont la mise en place est en cours.

Le décret d’encadrement : un effet visible … mais minime

Le dernier rapport annuel de l’Observatoire des loyers de l’agglomération parisienne (OLAP)[2] nous donne un premier éclairage de l’impact du décret sur l’encadrement des loyers. Pour rappel, le décret contraint les loyers à la relocation à augmenter au maximum au rythme de l’indice légal de référence (IRL), sauf si des travaux importants ont été réalisés (dans ce cas, la hausse est libre). Ainsi, entre le 1er janvier 2012 et le 1er janvier 2013, 51 % des logements parisiens proposés à la relocation ont vu leur loyer augmenter plus vite que l’IRL, et ce sans réalisation de travaux importants. Cette part a été moins élevée qu’en 2011 (58,3 %) et 2010 (59,4 %), mais elle demeure à un niveau proche de ceux observés entre 2005 et 2009 (50%), avant l’existence du décret.

L’impact semble un peu plus concluant à partir des données mensuelles. Ainsi, sur la période d’application du décret d’août à décembre 2012, la part des loyers proposés à la relocation et ayant augmenté plus vite que l’IRL a baissé de 25 % en moyenne sur un an, contre seulement 8 % sur les mois de janvier à juillet 2012, comparés à la même période de 2011.

Un « effet décret » a donc bien eu lieu.  Celui-ci aurait permis de faire baisser la part des hausses de loyers à la relocation supérieures à l’IRL d’environ 18%. Pour autant, si l’on considère, qu’en cas de respect total du décret, aucune hausse supérieure à l’IRL n’aurait dû persister, l’impact reste insuffisant. Plusieurs facteurs déjà identifiés dans un document de travail, peuvent expliquer cela : loyers de référence inexistants, manque d’information tant du propriétaire que du locataire, insuffisance des possibilités de recours, etc. Un an après, il s’avère que ces manquements ont joué négativement sur l’application de la mesure.

Une loi à l’envergure plus large

La grande nouveauté du projet de loi ALUR porte sur l’encadrement des niveaux de loyers dans les zones tendues alors que les précédents décrets ne portaient que sur leur évolution. Désormais, une fourchette de niveaux de loyers autorisés sera fixée par la loi et le décret viendra encadrer les évolutions maximales autorisées[3]. Pour cela, le gouvernement fixe chaque année par arrêté préfectoral un loyer médian de référence au m2, par secteur géographique (quartier, arrondissement, …) et par type de logement (1 pièce, 2 pièces,..). Ainsi,

  • – pour les nouvelles locations ou les relocations, le loyer ne pourra excéder le loyer médian de référence majoré au plus de 20%, sauf à justifier d’un complément de loyer exceptionnel (prestations particulières,…). Ensuite, l’augmentation ne pourra excéder l’IRL conformément au décret d’encadrement dans les zones tendues (sauf travaux) ;
  • – lors du renouvellement de bail, le loyer pourra être réajusté à la hausse ou à la baisse en fonction du loyer médian de référence majoré ou minoré[4]. Ainsi, un locataire (respectivement un bailleur) pourra engager un recours en diminution (resp. en augmentation) de loyer si ce dernier est supérieur (resp. inférieur) au loyer médian majoré (resp. minoré). En cas de hausse de loyer, un mécanisme d’étalement de cette hausse dans le temps est prévu. S’il y a un désaccord entre locataires et bailleurs, un règlement à l’amiable pourra être engagé, préalablement à la saisine d’un juge dans des délais strictement déterminés. A l’intérieur de la fourchette, la hausse est limitée à l’IRL ;
  • – en cours de bail, la révision annuelle du loyer se fait comme actuellement sur la base de l’IRL ;
  • – les locations meublées seront désormais concernées par l’encadrement : le préfet fixera un loyer de référence majoré et la révision sera limitée à l’IRL.

L’introduction de ces loyers médians de référence présente trois avancées majeures. D’une part, ils seront calculés à partir des informations recueillies par les observatoires des loyers sur l’ensemble du stock du parc locatif, et non à partir des seuls logements vacants et disponibles à la location, c’est-à-dire des loyers dits « de marché ». Or, ces loyers de marché sont supérieurs de près de 10 % à la moyenne de l’ensemble des loyers, elle-même supérieure à la médiane des loyers. Ce mode de calcul entraînera donc inéluctablement une baisse des loyers (de marché et moyens).

De même, le choix opéré de la médiane et non de la moyenne comme loyer de référence va dans le sens d’une plus grande stabilité de la mesure. Dans l’hypothèse où l’ensemble des loyers supérieurs de 20% à la médiane (donc au loyer de référence majoré) vient à baisser et où les autres loyers restent inchangés, la médiane reste identique. Dans le cas d’un ajustement de l’ensemble des loyers, la médiane viendrait à baisser mais dans des proportions moindres que la moyenne, par définition plus sensible à l’évolution des valeurs extrêmes.

Enfin, l’obligation d’inscrire dans le bail les loyers médian et médian majoré de référence, le dernier loyer pratiqué et si nécessaire, le montant et la nature des travaux effectués depuis la signature du dernier contrat, accroît la transparence et établit un cadre réglementaire plus strict qui devrait entraîner un plus grand respect de la mesure.

Quelles évolutions sont à attendre ?

En 2012, sur les 390 000 logements mis en location à Paris, 94 000 ont un loyer supérieur au loyer médian majoré (3,7 euros/m² de plus en moyenne) et 32 000 ont un loyer inférieur de plus de 30% au loyer médian de référence (2,4 euros/m² de moins en moyenne). En considérant que seuls les loyers supérieurs au loyer médian majoré seront corrigés, la baisse du loyer moyen pourrait être de 4% à 6% selon les zones et le type de logement. Cette diminution, bien que non négligeable, permettrait au mieux de revenir aux niveaux de loyers observés en 2010, avant la forte inflation des années 2011 et 2012 (+7,5% entre 2010 et 2012). Cet ajustement des loyers pourrait néanmoins prendre du temps. Propriétaires et locataires pourront facilement faire valoir leurs droits au moment d’une relocation[5] , mais les réévaluations lors du renouvellement de bail pourraient être plus lentes à mettre en place. Malgré un accès à l’information et un cadre réglementaire plus favorables au locataire, le risque d’un conflit avec le propriétaire et la concurrence exacerbée sur le marché locatif dans les zones où s’applique la loi, peuvent encore dissuader certains locataires de faire valoir leurs droits.

La question est beaucoup plus complexe pour les 32 000 logements dont les loyers sont inférieurs au loyer de référence minoré. Si la qualité de certains logements peut justifier cet écart (insalubrité, localisation,…), on sait également que la sédentarité des locataires est le principal facteur explicatif de la faiblesse de certains loyers. Ainsi, selon l’OLAP, à Paris, un logement occupé depuis plus de 10 ans par le même locataire a en moyenne un loyer inférieur de 20 % au loyer moyen de l’ensemble des locations. Dès lors, la question de la réévaluation de ces loyers se pose. En effet, la loi permet au propriétaire, en contradiction d’ailleurs avec le décret[6], de réévaluer, lors d’une relocation ou d’un renouvellement de bail, à hauteur du loyer médian minoré. Une fois ce dernier atteint, l’évolution ne pourra excéder l’IRL. A terme, certains logements aux caractéristiques équivalentes seront donc sur le marché à des loyers très disparates, pénalisant ainsi les bailleurs de locataires sédentaires. A contrario, les locataires présents depuis longtemps dans leur logement ont le risque de voir leur loyer fortement réévalué (supérieur à 10%). Les taux d’effort[7] de ces ménages risquent alors d’augmenter, poussant ainsi ceux à la contrainte budgétaire trop forte à émigrer vers des zones moins tendues.

Néanmoins, la possibilité de réajuster le loyer au niveau du loyer de marché, dans le cas d’une sous-évaluation manifeste, existe déjà dans le cadre de la loi actuelle du 6 juillet 1989 (article 17c) au moment du renouvellement de bail. En 2012, à Paris, 3,2 % des propriétaires ont eu recours à cet article. Avec la nouvelle loi, si les réajustements devraient être plus nombreux, l’impact inflationniste devrait être plus faible puisque la référence (le loyer médian minoré) est largement inférieure au loyer de marché.

Dès lors, la question du zonage est centrale. Plus le découpage sera fin, plus les loyers de référence correspondront aux caractéristiques réelles du marché local. Dans l’hypothèse d’un large découpage du territoire, les loyers médians de référence risquent d’être trop élevés pour les quartiers les moins chers et trop bas pour les quartiers les plus chers. Parallèlement, les faibles loyers seraient peu revalorisés dans les quartiers chers et plus franchement dans les quartiers qui le sont moins. Cela pourrait entraîner alors un rapprochement des loyers « inter quartiers » – indépendamment des caractéristiques locales – et non « intra quartiers ». Conséquences néfastes tant pour le propriétaire bailleur que pour le locataire.

La loi en discussion actuellement pourrait avoir d’autant plus d’impact sur les loyers que les prix immobiliers ont entamé une baisse en France en 2012 et que la conjoncture actuelle morose freine déjà les hausses de loyer. Mais, faut-il encore le rappeler, seule la construction de logements dans les zones tendues (y compris via une densification[8]) résoudra les problèmes structurels de ce marché. Les mesures d’encadrement des loyers ne sont qu’un moyen temporaire de limiter la hausse des taux d’effort mais elles ne sont pas à elles seules suffisantes.

 


[1] Pour plus de détails, voir le post “L’encadrement des loyers : quels effets en attendre?“.

[2] Le territoire couvert par ce rapport est composé de Paris, la petite couronne et la grande couronne parisienne.

[3] Le décret d’encadrement des loyers n’ayant pas le même champ d’action que la loi (38 agglomérations contre 28), certains territoires ne seront soumis qu’à l’encadrement des évolutions et non des niveaux.

[4] Si le projet de loi restait flou sur le calcul du loyer de référence minoré, un amendement adopté en juillet par la Commission de l’Assemblée propose que le loyer médian minoré soit inférieur d’au moins 30 % au loyer médian de référence. Un autre amendement précise qu’en cas de réajustement à la hausse, le nouveau loyer ne pourra excéder ce loyer médian minoré.

[5] En 2012, seul 18% des logements du parc locatif privé ont été l’objet d’une relocation.

[6] Lors du renouvellement de bail et de la relocation, le décret d’encadrement permet au propriétaire de réévaluer son loyer de la moitié de l’écart qui le sépare du loyer de marché.

[7] Il s’agit de la part du revenu du ménage consacré au logement.

[8] Sur ce sujet, voir l’article de Xavier Timbeau, “Comment construire (au moins) un million de logements en région parisienne”, Revue de l’OFCE n°128.




De la monnaie cosmopolitique

Par Maxime Parodi, sociologue à l’OFCE

Une monnaie cosmopolitique est une monnaie commune à plusieurs nations et fondée explicitement sur une forme de co-souveraineté (pour une analyse approfondie voir le working paper de l’OFCE, 2013-09, juin 2013). Une telle monnaie n’est possible qu’en acceptant une politique monétaire et des politiques budgétaires et fiscales fondées sur des raisons partagées, où chacun est responsable des engagements monétaires qu’il prend et co-responsable de la capacité de chacun à mener une politique économique adéquate. Pour durer, cette monnaie exige une attention soutenue sur les divergences macroéconomiques entre les partenaires et les difficultés que rencontre chacun ; elle impose une concertation ouverte sur les raisons de ces divergences et de ces difficultés ; elle nécessite une force de propositions sur les remèdes possibles, à court, moyen et long terme ; enfin, elle exige la coopération volontaire de chacun, à condition toutefois d’en avoir la capacité.

De tous les sociologues classiques, seul Simmel aurait pu envisager une telle monnaie. En effet, il est le seul à étudier la socialisation en elle-même, à vouloir comprendre la société en train de se faire tandis que Durkheim partait d’une société toujours déjà constituée, d’un individu toujours déjà socialisé et Weber partait d’individus toujours déjà constitués, « terminés », sans les considérer aussi comme des sujets susceptibles de s’influencer mutuellement pour faire délibérément société. Or une union cosmopolitique est précisément une union toujours en train de se faire ; elle n’est jamais définitivement constituée. Ce type d’union est donc fragile par essence mais, en même temps, elle n’apparaît jamais que dans les contextes où elle s’impose objectivement aux citoyens. L’union est sans cesse renouvelée, remise à l’ouvrage, parce qu’il y a un terreau objectif d’intérêts voisins ou transversaux et que, par conséquent, chacun juge souhaitable de résoudre au mieux les problèmes de voisinage. Dès lors, au nom de l’union, il devient possible de régler certains conflits avec équité et de resserrer les liens.

Dans cette optique, le fait d’adopter une monnaie commune n’est pas un acte anodin au sein d’une union cosmopolitique. D’un coup, chacun s’engage à respecter ses promesses monétaires à l’égard de ses voisins. C’est évidemment un grand bouleversement, qui a des conséquences immédiates et prévisibles : les coûts de transaction entre les partenaires s’effondrent, en particulier il n’y a plus de risque lié à la détention d’une devise étrangère puisque la devise est maintenant commune et garantie politiquement. Mais il y a aussi des conséquences moins immédiates, plus souterraines. Ainsi, cet engagement commun remet souvent en cause la culture économique des nations concernées en les obligeant à expliciter certains de leur mode de fonctionnement : des gouvernements habitués à résoudre leurs problèmes par l’inflation ou la dévaluation doivent dorénavant dire à leurs citoyens qu’il faut augmenter les taxes ou dépenser moins ; des banques « trop grosses pour faire faillite » doivent maintenant rédiger des testaments au lieu de compter sur la garantie implicite des citoyens… Enfin, la monnaie cosmopolitique crée un nouveau lien entre les partenaires, qui les conduit en principe à se soucier de leurs voisins. De fait, les partenaires ne se sont pas simplement engagés à respecter leurs promesses envers chacun, mais aussi à ce que chacun soit en mesure de respecter les siennes (puisque la confiance ne se divise pas).

Aussi la monnaie cosmopolitique introduit une sorte de solidarité au sein de l’union. Il faut désormais se soucier que son voisin soit en capacité de tenir ses engagements monétaires. Ceci implique de garantir à celui-ci une capacité d’endettement et/ou un flux d’investissement sur son territoire. Mais, à la différence des solidarités au sein d’une nation, cette garantie-ci est plus morale que juridique : elle n’est pas entièrement gravée dans le marbre de l’union, mais doit être discutée au cas par cas. Le risque d’aléa moral est ainsi écarté.

L’euro apparaît comme le cas paradigmatique d’une monnaie cosmopolitique. C’est même le seul cas au travers de l’histoire où le cosmopolitisme fonde véritablement la monnaie. Ce caractère inédit pose d’ailleurs des difficultés en bousculant les cultures économiques nationales. Depuis les débuts de la crise monétaire, en 2008, chacun découvre comment les institutions verticales (Conseil européen, BCE) abordent les problèmes et mettent en œuvre des réponses. Une culture de l’euro se forge-là, presque une jurisprudence. C’est pourquoi, d’ailleurs, le Conseil européen devrait s’interroger sur le poids de ses décisions sur cette culture naissante : la zone euro est-elle en train d’adopter une coutume des « retours immédiats » ? Une doctrine née de la défiance ? Si une monnaie cosmopolitique est possible, encore faut-il en accepter les deux faces – la co-responsabilité autant que la responsabilité.

 




Chocs, chômage et ajustement, les limites de l’union monétaire européenne

Par Christophe Blot

Dans un article paru en 2013 dans Open Economies Review[1], C. A. E. Goodhart et D. J. Lee comparent les mécanismes de sortie de crise aux Etats-Unis et en Europe. S’appuyant sur une comparaison de la situation de trois Etats (l’Arizona, l’Espagne et la Lettonie) confrontés à un krach immobilier et à une récession, les auteurs explorent les raisons de la divergence croissante observée entre les pays de la zone euro, divergence qui ne se retrouve pas aux Etats-Unis. Leur analyse s’appuie sur les critères de zones monétaires optimales permettant aux membres d’une union monétaire de s’ajuster en cas de choc négatif, et ainsi d’éviter une divergence pérenne de leur taux de chômage lors d’un ralentissement ou d’un recul de l’activité. Si la Lettonie ne fait pas formellement partie d’une union monétaire[2], sa monnaie est cependant restée solidement ancrée à l’euro pendant la crise. Ainsi, aucun des Etats étudiés par Goodhart et Lee n’a eu recours à une dévaluation nominale pour absorber les chocs financiers et réels auxquels ils ont été confrontés. Ils concluent que si l’Arizona a mieux absorbé les chocs que l’Espagne, c’est à la fois en raison de la plus grande solidarité fiscale qui existe entre les Etats des Etats-Unis et de la plus forte intégration du système bancaire américain qui contribue à amortir les chocs spécifiques à chaque Etat.

Outre l’appartenance de jure ou de facto à une union monétaire, l’Arizona, l’Espagne et la Lettonie ont en commun d’avoir enregistré un boom immobilier dans les années 2000 suivi d’une correction qui a débuté dès 2006 dans l’Arizona et en Lettonie, et un an plus tard en Espagne (graphique 1). La crise immobilière s’accompagne d’une récession et l’on retrouve le même décalage entre l’Espagne et les deux autres Etats. La Lettonie a enregistré la baisse d’activité la plus forte (-21 % entre 2007 et 2010). En revanche, les pertes d’activité enregistrées par l’Arizona (-5,5 % depuis 2007) et l’Espagne (-5 % depuis 2008) sont comparables. Tandis que l’ajustement à la baisse du marché immobilier a cessé en Arizona (la reprise est enclenchée dans l’Etat américain), la récession se poursuit en Espagne. Au total, cette différence dans l’ajustement se traduit par une hausse continue du chômage en Espagne alors qu’il a baissé de 2,8 points en Arizona depuis le pic atteint au premier trimestre 2010 (graphique 2).

L’enlisement de l’Espagne dans la récession et la divergence croissante des économies dans la zone euro pose la question de la capacité des pays de la zone euro à s’ajuster en cas de choc négatif. La théorie des zones monétaires optimales, initialement développée par Mundell en 1961[3], permet d’évaluer les conditions sous lesquelles un pays peut avoir intérêt à adhérer à une union monétaire. L’optimalité de ce choix dépend de la capacité du pays à absorber les chocs sans avoir recours à une dévaluation de la monnaie. Différents mécanismes d’ajustement sont mis en exergue. Il s’agit principalement[4] de la flexibilité des prix et en particulier des salaires, de la mobilité du facteur travail, de l’existence de transferts budgétaires entre les pays de l’union monétaire et de l’intégration financière. La flexibilité des prix correspond à un mécanisme de dévaluation interne. Comme pour la dépréciation de la monnaie, il s’agit de gagner en compétitivité – par une baisse du coût du travail relatif – pour stimuler les exportations et la croissance lorsque survient un choc négatif. Néanmoins, ce type d’ajustement est généralement bien plus long et coûteux comme le suggèrent les exemples récents de l’Islande et de l’Irlande[5]. La mobilité du travail permet l’ajustement dès lors que la récession conduit des personnes à migrer des Etats où le chômage est élevé vers celui où il est plus faible. La mise en œuvre de transferts budgétaires résulte de l’ensemble des mécanismes permettant aux Etats où la croissance ralentit de bénéficier de transferts stabilisateurs en provenance des autres Etats de l’union ou d’un échelon de gouvernement supérieur. Enfin, Goodhart et Lee considèrent également le rôle stabilisateur du système bancaire local. En l’occurrence, au sein de la zone euro, moins le système bancaire local est fragilisé par la crise immobilière ou celle des dettes publiques, meilleure est l’absorption des chocs.

Les auteurs analysent l’ajustement des économies considérées à l’aune de ces quatre critères. Ils étudient notamment le degré de flexibilité des prix et de mobilité du travail en fonction du chômage dans les trois Etats. Puis ils évaluent l’importance des transferts budgétaires et l’architecture du paysage bancaire. Leurs conclusions sont les suivantes :

  1.  La flexibilité des prix n’a joué que marginalement dans l’ajustement sauf en Lettonie où la hausse du chômage a entraîné une baisse du coût unitaire du travail. Ces coûts n’ont par contre pas réagi significativement à l’augmentation du chômage en Espagne et dans l’Arizona.
  2.  Si les migrations sont plus fortes au sein des Etats-Unis qu’en Europe, les différences ne permettent toutefois pas d’expliquer l’écart d’ajustement des taux de chômage. Il ressort cependant que le rôle des migrations en tant que mécanisme d’ajustement se serait renforcé en Europe. Il reste qu’elles sont insuffisantes pour assurer la convergence des taux de chômage.
  3. En 2009 et 2010, l’Arizona a bénéficié d’importants transferts du gouvernement fédéral alors qu’au niveau européen, il n’existe aucun mécanisme automatique de transferts entre Etats. Toutefois, la Lettonie a bénéficié de l’assistance du FMI en 2009 tandis que les pays de la zone euro sont venus au chevet des banques espagnoles. Il reste qu’en l’absence de budget européen conséquent, les pays européens ne peuvent bénéficier que de plans d’aide d’urgence qui, certes, permettent de répondre à un besoin de financement, mais sont insuffisants pour jouer le rôle de stabilisateur économique.
  4. Enfin, les auteurs soulignent que l’amplification financière des chocs a été moindre en Arizona dans la mesure où l’essentiel de l’activité bancaire y est réalisée par des banques nationales qui sont de fait moins sensibles aux conditions macroéconomiques et financières locales. Le risque de rationnement du crédit est alors atténué, ce qui permet de mieux absorber le choc initial. En Espagne, à l’exception de quelques banques ayant une activité internationale, qui leur permet de diversifier les risques, l’activité bancaire dépend de banques locales qui sont de fait plus vulnérables. Cette fragilité accrue pousse les banques à restreindre l’accès au crédit, ce qui renforce le choc initial. La Lettonie se trouve dans une position alternative dans la mesure où l’activité financière est essentiellement réalisée par des banques étrangères. La nature du risque est alors différente puisque l’activité financière locale est déconnectée des conditions macroéconomiques lettones mais dépend de celles du pays où ces banques – suédoises dans une forte proportion – exercent leur activité principale.

La crise de la zone euro a donc bien une dimension institutionnelle. A partir du moment où les pays ont librement consenti à abandonner leur souveraineté monétaire, ils ont aussi refusé de recourir à la dévaluation de la monnaie pour amortir les récessions. Il est cependant indispensable que des mécanismes d’ajustement alternatifs opèrent afin de garantir la « soutenabilité » de l’unification monétaire. L’article écrit par Goodhart et Lee rappelle à cet égard que ces mécanismes font encore défaut dans la zone euro. Les négociations autour du budget européen n’ont ouvert aucune perspective pour la mise en œuvre de transferts fiscaux permettant de stabiliser les chocs au niveau européen. La discussion sur les Eurobonds est au point mort. Si le MES (Mécanisme européen de stabilité) est bien un outil de solidarité entre les Etats membres, il répond à une problématique différente puisqu’il s’agit uniquement d’une aide financière d’urgence et non d’un mécanisme de stabilisation automatique. L’intégration bancaire pourrait aussi permettre d’amortir les fluctuations. Cependant, la crise a entraîné une fragmentation accrue des marchés bancaires européens. Le dernier rapport sur l’intégration financière en Europe, publié par la BCE, révèle une baisse des flux bancaires transfrontaliers de 30 % au cours de la période récente. De même, malgré la politique monétaire commune, les taux appliqués aux crédits par les banques européennes ont divergé récemment[6] (graphique 3). Ainsi, malgré le passeport bancaire européen issu de la directive européenne du 15 décembre 1989 en matière de reconnaissance mutuelle des agréments délivrés aux établissements de crédit, l’activité bancaire transfrontalière reste peu développée à l’échelle européenne. Le modèle de banque de détail s’appuie sur l’existence de relations de long terme entre la banque et ses clients, ce qui explique sans doute pourquoi le processus d’intégration est beaucoup plus long que pour les marchés obligataires, monétaires ou d’actions. Il reste cependant que l’union bancaire pourrait constituer une étape supplémentaire dans ce difficile processus d’intégration. Cela favoriserait le développement d’une activité transnationale, ce qui permettrait aussi de déconnecter les problèmes de solvabilité et de liquidité des banques et ceux du financement de la dette publique.

graph1_1110CBblog

graph2_1110CBblog

graph3b_1110CBblog

 

___________________________________

[1] « Adjustment mechanisms in a currency area », Open Economies Review, January 2013. Une version préliminaire de l’article peut être téléchargée ici : http://www.lse.ac.uk/fmg/workingPapers/specialPapers/PDF/SP212.pdf

[2] La Lettonie participe depuis 2005 au mécanisme de change européen et devrait adopter l’euro au 1er janvier 2014.

[3] « A theory of optimum currency areas », American Economic Review,  vol. 51, 1961.

[4] On peut aussi ajouter le taux d’ouverture de l’économie ou le degré de diversification de la production.  Mongelli (2002) propose une revue détaillée de ces différents critères. Voir : « New views on the optimum currency area theory : what is EMU telling us ? » ECB Working Paper, n° 138.

[5] Voir Blot et Antonin (2013) pour une analyse comparative des cas irlandais et islandais.

[6] C. Blot et F. Labondance (2013) proposent une analyse de la transmission de la politique monétaire aux taux appliqués par les banques aux sociétés non financières (voir ici) aux prêts immobiliers (voir ici).




Le solaire refroidit les relations sino-européennes

par Sarah Guillou

Début juillet 2013, c’est encore une entreprise de l’industrie du solaire, Conergy, qui est déclarée en faillite. La sortie de cette entreprise allemande, créée en 1998, illustre la fin d’un cycle pour l’industrie solaire. Cette faillite s’ajoute à une série de fermetures et de liquidations, tous pays confondus, qui ont ponctué la montée de la tension commerciale entre les Etats-Unis et l’Europe d’un côté et la Chine de l’autre au sujet des panneaux solaires (voir La Note de l’OFCE : « Le crépuscule de l’industrie solaire, idole des gouvernements », n° 32 du 6 septembre 2013). Au sommet de cette tension, en mai, la Commission européenne a décidé de menacer la Chine de droits de douanes de plus de 45 %. La guerre commerciale conclut une décennie d’engagements des gouvernements comme s’il s’agissait de sauver les deniers publics investis. Mais, elle signe surtout l’échec industriel d’une politique énergétique mondiale non coopérative.

Des débuts industriels prometteurs mais chaotiques

Amorcée au début des années 2000, l’idolâtrie gouvernementale en faveur du solaire, partagée des deux côtés de l’Atlantique, mais aussi dans les économies émergentes (et singulièrement la Chine) a certes propulsé l’énergie solaire au premier rang des énergies renouvelables, mais a aussi alimenté de nombreux déséquilibres de marché et de fortes turbulences industrielles. Alors que le prix du pétrole ne cessait d’augmenter de 2000 à 2010, la nécessité d’accélérer la transition énergétique et les engagements du protocole de Kyoto ont poussé les gouvernements à soutenir la production d’énergie renouvelable dont l’énergie solaire a été la grande bénéficiaire. De fait, l’industrie mondiale a connu une croissance gigantesque depuis 2004 : elle a crû de plus de 600 % de 2004 à 2011.

Le soutien public, accompagné d’investissements privés, a suscité des entrées massives sur le marché qui ont déstabilisé le prix de la ressource principale, le silicium, dont la quantité ne pouvait s’ajuster aussi rapidement. Les fluctuations du prix du silicium au gré des déséquilibres sur le marché des panneaux photovoltaïques ont créé une grande instabilité d’approvisionnement de la ressource principale s’ajoutant à l’incertitude technologique des entreprises qui cherchaient à innover dans le secteur (comme l’entreprise américaine Solyndra qui a finalement déposé le bilan en 2013).

La guerre commerciale pour une étoile

L’accélération de la domination chinoise sur l’industrie a pour sa part affecté  l’incertitude concurrentielle. La Chine est aujourd’hui le premier marché mondial et l’implication du gouvernement chinois dans le développement de l’industrie est sans égal. Aujourd’hui troisième pays au classement en termes de capacités installées (après l’Allemagne et l’Italie), la Chine est également le premier producteur mondial de panneaux solaires. Elle totalise aujourd’hui la moitié de la production mondiale de panneaux alors qu’elle en produisait seulement 6 % en 2005. Les producteurs chinois ont bénéficié d’un soutien massif des gouvernements central et locaux, ce qui a aussi participé à saturer le marché chinois.

La Chine, au-delà du soutien public, bénéficie d’un indéniable avantage de coût du travail qui rend l’activité de fabrication de panneaux solaires très compétitive – les étapes plus intenses en technologie se situent en amont dans cette industrie au niveau de la cristallisation du silicium et du découpage en tranches. Outre cet avantage compétitif, les producteurs chinois sont accusés de dumping, c’est-à-dire de vendre en dessous du coût de production. Leur compétitivité est donc sans égal mais … de plus en plus contestée. Les Etats-Unis ont décidé en octobre 2012 d’imposer des droits de douane sur les importations de cellules et de modules chinois faisant varier les taxes anti-dumping de 18,3 à 250% (pour les nouveaux entrants) selon les entreprises.

L’Europe, qui importe beaucoup plus d’éléments photovoltaïques de Chine que les Etats-Unis, a tout d’abord décidé de s’orienter vers l’imposition de droits anti-dumping et a ouvert une enquête en septembre 2012, déclenchée par une plainte d’EU ProSun – une association sectorielle de 25 fabricants européens de modules solaires – concernant les importations de panneaux et de modules en provenance de Chine. La Commission a finalement décidé en juin 2013 d’imposer un droit de douane de 11,2% sur les panneaux solaires tout en menaçant de le faire grimper à 47% si la Chine ne modifiait pas sa position en termes de prix d’ici le 6 août .

La contre-attaque de l’Empire

La contre-attaque n’a pas tardé : la Chine a décidé en juillet 2013 d’instaurer des droits anti-dumping sur les importations de silicium en provenance des Etats-Unis et de la Corée du Sud. La menace plane aussi sérieusement sur les acteurs européens : la Chine est un des plus gros marchés pour les exportateurs de silicium européen (870 millions de dollars en 2011).

Cette guerre commerciale révèle essentiellement une position défensive des concurrents industriels de la Chine face à une politique de soutien qu’ils jugent disproportionnée et déloyale et ceci alors que la Chine n’a cessé ces dix dernières années de grignoter les emplois industriels de ses concurrents. Mais on peut évidemment s’interroger sur la logique industrielle de cette politique commerciale.

Tout d’abord, elle contredit les précédentes politiques des gouvernements en matière de promotion de l’énergie solaire. L’arbitrage entre les objectifs du changement climatique (disposer des outils de transition énergétique à bas coût) et la rentabilité et pérennité de l’industrie semble avoir été tranché en faveur du second. Ensuite, elle soutient cette fois-ci les producteurs directement mais pourrait handicaper les installateurs, les cabinets d’études préalables à l’installation et les fabricants de panneaux à partir de composants chinois. Enfin, elle expose sérieusement à des représailles commerciales qui pourraient coûter cher, que ce soit aux exportateurs de silicium poly-cristallin, de machines servant à l’industrie solaire ou encore d’autres industries comme le vin ou les voitures de luxe.

Par crainte d’une probable non approbation d’une majorité des pays membres ou pour « fouetter d’autres dragons » plus librement (le conflit des télécoms à venir), l’accord obtenu fin juillet par le Commissaire Karel De Gucht et validé par la Commission européenne le 2 août, ne devrait pas entraîner de représailles commerciales ni perturber trop fortement l’approvisionnement du marché. Il engage près de 90 producteurs chinois à ne pas vendre en dessous de 56 centimes d’euro par watt de puissance. Ce prix est un compromis entre ce qui est jugé cohérent avec le coût de production chinois et le prix moyen actuel sur le marché d’un côté et ce qui est acceptable par les concurrents européens de l’autre.

Au final, au cours de cette décennie (2002-2012), l’industrie du solaire photovoltaïque est indéniablement devenue globale et fortement concurrentielle, et ceci en dépit d’un net  interventionnisme des gouvernements. En réalité, même les gouvernements se sont fait concurrence. A présent, ils règlent leurs conflits en jouant avec les règles du commerce international. Le soutien coûteux de l’Etat aura propulsé le développement de la filière de manière inespérée : en créant un excès d’offre, le prix du panneau solaire a fortement chuté et a accéléré l’incroyable boom du solaire. Le solaire représente en 2013 plus de 2 % de l’électricité consommée dans l’Union européenne. Cette percée du solaire s’est accompagnée de nombreuses sorties du marché mais aussi d’entrées, sans qu’une concentration significative des acteurs ne se soit pour le moment produite. Le choix du retrait public en faveur de la politique commerciale est une nouvelle page de l’histoire de cette industrie dont les motivations ne relèvent plus de la politique énergétique et guère davantage de la politique industrielle. Evidemment il n’y a pas de crépuscule sans une prochaine aube. Mais l’aube de demain sera certainement faite d’un autre « solaire ». L’avenir européen de la fabrication de panneaux solaires passera par l’innovation technologique non pour en réduire le coût mais pour en augmenter les performances.




In memoriam. Ronald H. Coase (1910-2013)

par Vincent Touzé

Décédé à l’âge de 102 ans le 2 septembre 2013, l’économiste américain Ronald Coase nous laisse une œuvre exceptionnelle du fait de sa simplicité et sa pertinence.

Précurseur de la théorie de la firme, il voit dans cette ce type de structure une capacité indéniable à réduire les coûts de transaction et organiser ainsi efficacement l’activité économique en dehors des marchés (« The Nature of the firm », Economica, 1937). Le dilemme de la firme est le suivant : faire (c.à.d. produire soi-même) ou faire faire (recourir au marché). En l’absence de coûts de transaction sur les marchés, il n’y aurait pas de firme mais seulement des petites unités autonomes de production. Les coûts de transaction résultent de l’ensemble des dépenses associées à l’acquisition ou à la vente d’un produit : rémunération d’intermédiaires, acquisition d’information, recherche du meilleur prix, etc. Ainsi, lorsque ces coûts sont trop élevés, il est opportun de produire soi-même le bien ou le service. Toutefois, les firmes font également face à des coûts pour s’organiser. La théorie des organisations est née.

Défenseur de la libre concurrence, il attribue aux défaillances des marchés une mauvaise définition des droits de propriété (« The Problem of social cost », 1960, Journal of Law and Economics, 3: 1-44). Il se méfie des réglementations coûteuses. Il s’oppose à Pigou (The Economics of Welfare, 1932, Macmillan and Co. Ed.) qui recommande l’intervention publique pour gérer les externalités négatives. Au contraire, il préconise une meilleure identification des droits de propriété, le rôle de l’Etat devant se limiter à être garant du respect de ces droits. Cette idée a été synthétisée sous la forme du « théorème de Coase » en 1966 par George Stigler dans son ouvrage The Theory of Price (MacMillan Ed.). En s’intéressant précisément aux interactions entre droit (définition de la propriété, fondements et conséquences des décisions de justice, etc.) et économie, Coase apparaît comme un des pères-fondateurs d’une discipline nouvelle, celle de l’analyse économique du droit.

Dans les années 1990, le protocole de Kyoto a popularisé le « théorème de Coase » en  proposant la mise en place d’un commerce de droits d’émissions pour réguler la quantité de gaz à effet de serre, les fameux « droits à polluer ». Pour contrôler les émissions de gaz à effets de serre, deux approches sont possibles : la vente de droits à polluer ou la taxation à la Pigou. La première approche consiste à attribuer des droits à émettre du gaz en quantité limitée. Pour produire, il faut détenir des droits. Ces droits s’échangent sur un marché où le prix des émissions de gaz résulte de la confrontation de l’offre à la demande. La seconde approche consiste à attribuer un prix ad hoc (taxe pigouvienne) au coût social marginal de l’externalité. Cette taxe est payée par les entreprises émettrices des gaz. Le principe des droits à polluer est souvent considéré comme plus exigeant (et donc contraignant pour les entreprises) car le prix de l’émission de gaz est endogène et la quantité totale limitée. Avec une taxe pigouvienne, c’est l’inverse. Le prix est fixe (ou faiblement endogène en cas de taxation progressive) et la quantité potentiellement illimitée.

Attaché à la simplicité de l’exposé, Coase n’hésite pas à dénoncer le recours à un formalisme mathématique trop excessif. Dans un portrait publié par l’Université de Chicago en 2012, il regrette ainsi que l’économie soit « devenue un sujet axé sur la théorie et les mathématiques ». Selon lui, « l’approche devrait être empirique. Vous étudiez le système comme il est, comprenez pourquoi il fonctionne de cette façon et considérez quels changements pourraient faire en sorte de l’améliorer ». Modeste, il confie : « Je n’ai jamais fait quelque chose qui n’était pas évident, et je ne sais pas pourquoi d’autres personnes ne le font pas » et aussi « Je n’ai jamais pensé que les choses que j’ai faites étaient si extraordinaires ».

Son œuvre a été couronnée par un prix Nobel en 1991.




Retraites 2013 : une (petite) réforme…

par Henri Sterdyniak

Les mesures annoncées par le gouvernement le 27 août ne constituent pas une grande réforme  des retraites. Comme le montre la Note de l’OFCE (n°31 du 4 septembre 2013), ce sont essentiellement des mesures de financement d’ampleur limitée. Les retraités sont plus frappés que les actifs. Les entreprises ont obtenu la promesse de ne pas être mises à contribution.  L’équilibre financier n’est pas vraiment assuré, étant conditionné à une forte reprise économique (à horizon 2020), à une croissance soutenue et à une nette baisse du niveau relatif des retraites d’ici 2040. Les mesures de justice en faveur des femmes et des travailleurs soumis à des travaux pénibles  sont annoncées, mais leur mise en place est reportée ; elles ne sont pas encore à la hauteur des enjeux. Le pire est certes évité (la désindexation des retraites, un recul rapide de l’âge ouvrant le droit à la retraite, une réforme dite structurelle) ; la pérennité du système est proclamée, mais la (petite) réforme de 2013 ne se donne guère les moyens d’assurer sa fiabilité économique et sociale.




Trop de finance tue-t-il la croissance ?

par Jérôme Creel, Paul Hubert et Fabien Labondance

Existe-t-il un niveau optimal de financiarisation de l’économie ? Un document de travail du FMI écrit par Arcand, Berkes et Panizza (2012) s’intéresse à cette question et tente d’évaluer empiriquement ce niveau. Il met en avant les effets négatifs engendrés par une financiarisation trop approfondie.

La financiarisation renvoie à la place prise par les services financiers dans une économie et par conséquent au niveau d’endettement des agents économiques. Traditionnellement, l’indicateur du niveau de financiarisation se mesure en calculant le ratio entre les crédits au secteur privé et le PIB. Jusqu’au début des années 2000, cet indicateur ne prenait en compte que les crédits octroyés par les banques de dépôt, mais le développement du shadow banking (Bakk-Simon et al., 2012) incite dorénavant à prendre également en compte les prêts accordés par l’ensemble des institutions financières. Cet indicateur nous permet d’appréhender l’intermédiation financière (Beck et al., 1999)[1]. Le graphique ci-dessous présente l’évolution de la financiarisation dans la zone euro, en France et aux Etats-Unis depuis les années 1960. Cette dernière a plus que doublé dans les trois économies. Avant le déclenchement de la crise des subprime à l’été 2007, les crédits accordés au secteur privé dépassaient 100% du PIB dans la zone euro et 200% aux Etats-Unis.

Graphe-Blog-28-08

Arcand, Berkes et Panizza (2012) se demandent dans quelle mesure la place de plus en plus prépondérante prise par la finance a un impact sur la croissance économique. Pour comprendre l’intérêt de ce papier, il est utile de rappeler les divergences existantes dans les conclusions de la littérature empirique. Une partie, la plus prolixe, mettait en évidence jusqu’à récemment une causalité positive entre développement financier et croissance économique (Rajan et Zingales, 1998, ou Levine, 2005) : le secteur financier est un lubrifiant de l’économie qui permet une meilleure allocation des ressources et l’émergence de firmes innovantes. Ces enseignements tirés de modèles de croissance (endogène notamment) sont confirmés par des comparaisons internationales incluant des pays en développement dotés de petits secteurs financiers.

Certains auteurs, plus sceptiques, estiment que le lien finance-croissance économique est surestimé (Rodrik et Subramanian, 2009). De Gregorio et Guidotti (1995) mettent notamment en avant que ce lien est ténu, voire inexistant, dans les pays développés et suggèrent qu’à partir d’une certaine richesse économique, le secteur financier ne contribue plus que marginalement à améliorer l’efficacité des investissements. Il abandonne son rôle de facilitateur de la croissance économique pour se concentrer sur sa propre croissance (Beck, 2012). Cela génère de grands groupes bancaires et financiers de type « too big to fail » permettant à ces entités de prendre des risques exagérés tout en se sachant couverts par les autorités publiques. Leur fragilité se transmet rapidement à l’ensemble des autres groupes et à l’économie dans son ensemble. La crise des subprime a bien montré la puissance et l’ampleur de ces effets de corrélation et de contagion.

Pour tenter de réconcilier ces deux courants, plusieurs travaux supposent une relation non linéaire entre financiarisation et croissance économique. C’est le cas de l’étude d’Arcand, Berkes et Panizza (2012). Ils expliquent, dans le cadre d’une méthodologie en panel dynamique, la croissance du PIB par tête par l’intermédiaire des variables usuelles de la théorie de la croissance endogène (à savoir le PIB par tête initial, l’accumulation du capital humain à travers la moyenne des années d’enseignement, les dépenses publiques, l’ouverture commerciale et l’inflation) et ajoutent à leur modèle les crédits au secteur privé et cette même variable élevée au carré, afin de tenir compte d’une potentielle non-linéarité. Ils parviennent ainsi à montrer que :

  1. la relation entre la croissance économique et les crédits au secteur privé est positive ;
  2. la relation entre la croissance économique et les crédits au secteur privé élevés au carré (c’est-à-dire l’effet des crédits au secteur privé lorsqu’ils sont à un niveau élevé) est négative ;
  3. pris ensemble, ces deux éléments indiquent une relation concave – une courbe en cloche –  entre la croissance économique et les crédits au secteur privé.

La relation entre croissance et finance est donc positive jusqu’à un certain niveau de financiarisation, et au-delà de ce seuil, les effets de la financiarisation commencent progressivement à devenir négatifs. Suivant les différentes spécifications estimées par Arcand, Berkes et Panizza (2012), ce seuil (en part de PIB) est compris entre 80% et 100% de crédits accordés au secteur privé[2].

Alors que le niveau de financiarisation des économies développées se situe au-dessus de ces seuils, ces conclusions incitent à contrôler le développement de la financiarisation et l’efficacité marginale que celui-ci peut avoir sur l’économie. De plus, l’argument des lobbys bancaires, selon lequel réguler la taille et la croissance du secteur financier aurait un impact négatif sur la croissance des économies concernées, n’est pas corroboré par les données dans le cas des pays développés.

 


[1] S’il peut sembler succint, car ne rendant pas compte de la désintermédiation, l’utilisation de cet indicateur se justifie par sa disponibilité au niveau international qui permet des comparaisons. Par ailleurs, les enseignements qu’il nous apporte seraient certainement amplifiés avec un indicateur protéiforme de la financiarisation.

[2] Cecchetti et Kharroubi (2012) précisent que ces seuils ne doivent pas être perçus comme des cibles mais davantage comme des « extrema » à n’atteindre qu’en période de crise. En période « normale », il conviendrait dès lors que les niveaux d’endettement soient plus faibles afin de laisser une certaine marge de manœuvre aux économies en cas de crise.




France : pourquoi tant de zèle ?

par Marion Cochard et Danielle Schweisguth

Le 29 mai dernier, la Commission européenne adressait aux Etats membres de l’Union ses nouvelles recommandations de politique économique. Dans le cadre de celles-ci, la Commission accorde deux années supplémentaires à la France pour atteindre la cible de 3% de déficit public. L’objectif de déficit de 3 % est désormais fixé à 2015 et la Commission européenne préconise pour y arriver des impulsions budgétaires de -1,3 point de PIB en 2013 et -0,8 en 2014 (voir la note « Austérité en Europe: changement de cap? »). Cela allègerait l’effort structurel à fournir, puisque le respect des engagements antérieurs aurait nécessité des impulsions de -2,1 et -1,3 points de PIB pour 2013 et 2014 respectivement.

Pour autant, le gouvernement français a choisi de ne pas relâcher sa politique d’austérité, en maintenant l’ensemble des mesures annoncées lors du projet de loi de finances de l’automne 2012. Cette politique reste restrictive et va bien au-delà des préconisations de la Commission : -1,8 point de PIB d’impulsion budgétaire, dont 1,4 point de hausse des taux de prélèvement obligatoire sur la seule année 2013. Pire, les grandes orientations pour le budget 2014 présentées par le gouvernement au Parlement le 2 juillet 2013 impliquent un effort structurel de 20 milliards d’euros pour 2014, soit 1 point de PIB, là où la Commission n’en exigeait que 0,8. Le gouvernement durcit par ailleurs l’impulsion budgétaire de 0,6 point de PIB qu’il avait lui-même affiché dans le programme pluriannuel de la Loi de finances pour 2013.

Le tableau ci-dessous permet de prendre la mesure de l’effort engagé et de ses conséquences sur l’économie française. On y lit l’évolution de la croissance, du taux de chômage et du solde public en 2013 et 2014, selon trois stratégies budgétaires :

  1. celle retenant l’assouplissement préconisé par la Commission en mai 2013 ;
  2. celle reposant sur le budget voté par le gouvernement pour 2013 et, a priori, 2014 ;
  3. celle reposant sur un scénario alternatif qui prend acte de l’impulsion de -1.8 point de PIB engagée pour l’année 2013, et calcule l’impulsion budgétaire suffisante en 2014 pour respecter l’objectif de déficit public de -3,6 % de la Commission européenne.

MC_DS_Tab_Blog25-07

Selon nos estimations réalisées à partir du modèle IAGS[1], le déficit public serait réduit à 3,1 % du PIB en 2014 dans le scénario (2), là où la Commission n’exigeait que 3,6 %. Conséquence de cet excès de zèle, la croissance cumulée pour 2013 et 2014 si le budget voté est appliqué serait de 0,7 point inférieure à celle des deux autres scenarii (0,8 point contre 1,5 point). Le corollaire est une hausse du chômage en 2013 et en 2014 : le taux de chômage, de l’ordre de 9,9 % en 2012, passe ainsi à 11,1 % en 2014, soit une hausse de plus de 350 000 chômeurs sur la période. A l’inverse, le scénario assoupli de la Commission européenne permettrait une quasi-stabilisation du chômage dès 2013, tandis que le scénario alternatif permet une inversion de la courbe du chômage en 2014.

Alors que l’échec de la politique d’austérité des dernières années semble infléchir progressivement la position de la Commission européenne, le gouvernement français persiste dans cette voie. A rebours de l’urgence sociale à laquelle le pays fait face et du changement de paradigme qui semble gagner la plupart des institutions internationales, le gouvernement français choisit d’en rester au fétichisme des 3 %.


[1] IAGS est l’acronyme de “Independent Annual Growth Survey”. Ce modèle propose une modélisation simplifiée des onze principales économies de la zone euro (Autriche, Belgique, Finlande, France, Allemagne, Grèce, Irlande, Italie, Pays-Bas, Portugal et Espagne). Voir plus de détails, voir le document de travail Model for euro area medium term projections.




Austérité en Europe: changement de cap ?

par Marion Cochard et Danielle Schweisguth

Le 29 mai dernier, la Commission européenne adressait aux Etats membres de l’Union européenne ses nouvelles recommandations de politique économique. Dans ces recommandations, la Commission préconise un report des objectifs de déficit public pour quatre pays de la zone euro (Espagne, France, Pays-Bas, Portugal), leur laissant davantage de temps pour atteindre la cible de 3 % de déficit public. L’Italie n’est plus en procédure de déficit excessif. Seule la Belgique est sommée d’intensifier ses efforts. Cette nouvelle feuille de route peut-elle être interprétée comme un changement de cap annonçant un assouplissement des politiques d’austérité en Europe ? Peut-on en attendre un retour de la croissance sur le vieux continent ?

Ces questions ne sont pas triviales. La Note de l’OFCE (n°29, 18 juillet 2013) tente d’y répondre en simulant trois scénarii de politique budgétaire à l’aide du modèle iAGS. Il ressort de cette étude que le report des objectifs de déficit public pour quatre pays de la zone euro ne traduit pas un véritable changement de cap de la politique budgétaire en Europe. Certes, le scénario du pire, dans lequel l’Espagne et le Portugal se seraient vu imposer les mêmes recettes que la Grèce, a été évité. La Commission accepte implicitement de laisser jouer les stabilisateurs automatiques quand la conjoncture se dégrade. Cependant, pour de nombreux pays, les préconisations en termes d’efforts budgétaires vont toujours au-delà de ce qui est imposé par les traités (0,5 point de PIB de réduction annuelle du déficit structurel), avec pour corollaire une hausse de 0,3 point du taux de chômage en zone euro entre 2012 et 2017.

Pourtant, une troisième voie nous semble possible. Il s’agit d’adopter dès 2014 une position de « sérieux budgétaire » qui ne remettrait pas en cause la soutenabilité de la dette publique. Cette stratégie consiste à maintenir constant le taux de prélèvements obligatoires et à laisser les dépenses publiques évoluer au même rythme que la croissance potentielle. Cela revient à une impulsion budgétaire neutre entre 2014 et 2017. Dans ce scénario, le solde public de la zone euro s’améliorerait de 2,4 points de PIB entre 2012 et 2017 et la trajectoire de dette publique s’inverserait dès 2014. A l’horizon 2030, le solde public serait excédentaire (+0,7 %) et la dette approcherait les 60 % du PIB. Surtout, ce scénario permettrait de faire baisser significativement le taux de chômage à l’horizon 2017. Les pays européens devraient peut-être s’inspirer de la sagesse de Jean de La Fontaine : « Rien ne sert de courir, il faut partir à point »…




Les conteurs d’EDF

par Evens Saliesa

L’enjeu des politiques de réduction des émissions de gaz à effet de serre n’est pas seulement environnemental. Il est aussi de stimuler l’innovation, facteur de croissance économique. La politique d’amélioration de l’efficacité énergétique [1] nécessite de lourds investissements visant à transformer le réseau électrique en un réseau plus intelligent, un smart grid.

A ce titre, les Etats membres ont jusqu’en 2020 pour remplacer les compteurs d’au moins 80 % des clients des secteurs résidentiel et tertiaire par des compteurs plus « intelligents ». En France métropolitaine, ces deux secteurs représentent 99 % des sites raccordés au réseau basse tension (< 36kVA), soit environ 43 % de la consommation d’électricité, et près de 25 % des émissions de gaz à effet de serre (sans compter celles émises lors de la production de l’énergie électrique qui alimente ces sites).

Ces nouveaux compteurs possèdent des fonctionnalités qui, comme l’ont montré des recherches, permettent de réduire la consommation électrique. La télérelève des données de consommation toutes les 10 minutes, et leur transmission en temps réel sur un afficheur déporté (l’écran d’un ordinateur, etc.), matérialisent sans délai les efforts d’économie d’électricité ; ce qui était impossible auparavant avec deux relevés par an. La télérelève à haute fréquence permet aussi un élargissement du menu de contrats des fournisseurs à des tarifs mieux adaptés au profil de consommation des clients. Le « pilote » du réseau de transmission peut optimiser plus efficacement l’équilibre entre la demande et une offre plus fragmentée à cause du nombre croissant de petits producteurs indépendants. Pour les distributeurs [2], la télérelève résout le problème d’accessibilité aux compteurs [3].

Ces fonctionnalités sont supposées créer les conditions d’émergence d’un marché de la maîtrise de la demande d’électricité (MDE) complémentaire de celui de la fourniture. Ce marché offre aux fournisseurs non-historiques la possibilité de se différencier un peu plus, en proposant des services adaptés au besoin de MDE de la clientèle [4]. Le gain en termes d’innovation pourrait être significatif si des sociétés tierces, spécialistes des technologies de l’information et de la communication, développent elles aussi les applications logicielles permises par l’usage du compteur. Pourtant, en France, la politique de déploiement des compteurs évolués ne semble pas aller dans le sens d’une plus grande concurrence. L’innovation pourrait s’arrêter au compteur en raison d’une délibération de la Commission de régulation de l’énergie (CRE) stipulant que :

« Les fonctionnalités des systèmes de comptage évolués doivent relever strictement des missions des [distributeurs] d’électricité, […] Ainsi, les fonctionnalités supplémentaires demandées par certains acteurs [essentiellement les fournisseurs] qui relèvent du domaine concurrentiel (notamment, l’afficheur déporté) ne sont pas retenues. »

A la lecture de ce paragraphe, nous comprenons que les fournisseurs ne sont pas prêts à supporter le coût de développement de ces fonctionnalités. Or, d’après l’Article 4 de cet arrêté, qui précise la liste des fonctionnalités réservées aux distributeurs, aucune ne semble avoir été laissée en exclusivité au secteur concurrentiel. En effet, les ménages équipés d’un ordinateur pourront consulter leurs données de consommation sans passer par leur fournisseur ou une société tierce.

Il est bon de s’interroger sur les bénéfices et les coûts d’une telle approche qui, a priori, ressemble à une monopolisation du marché de la MDE par les distributeurs.

Cette approche permettra d’atteindre rapidement l’objectif des 80 % puisque la CRE a opté pour un service public de la MDE : les distributeurs, qui ont des obligations de service public, déploieront les compteurs communicants. A lui seul, le compteur « Linky » du distributeur d’électricité dominant, ERDF, sera déployé sur 35 millions de sites basse tension, couvrant ainsi 95 % du réseau national de distribution[5]. Ainsi, le risque de sous-investissement dans les capacités d’effacement que les fournisseurs d’électricité devront bientôt détenir est faible. En effet, ces derniers n’ayant pas à supporter les coûts de fabrication et déploiement des compteurs, ils pourront rapidement investir dans le développement de ces capacités. De plus, la péréquation des coûts de sous-traitance pour la fabrication des compteurs et de déploiement sur tout le réseau français de distribution permet des économies d’échelle considérables. Enfin, le faible taux de pénétration des compteurs dans les pays qui ont opté pour une approche décentralisée (le compteur et les services sont alors en partie à la charge des ménages intéressés), plaide en faveur du modèle français. Ce modèle est en effet plus pragmatique puisqu’il supprime l’essentiel des barrières à l’adoption.

Cependant, le niveau de concentration des activités de distribution et de fourniture de l’électricité aux ménages pose question : ERDF est affilié à EDF, en quasi-monopole dans la fourniture aux ménages. En termes d’innovation dans les services de MDE, l’intérêt pour EDF d’aller au-delà du projet Linky de sa filiale paraît faible. D’abord, à cause des coûts déjà engagés par le groupe (au moins cinq milliards). Ensuite parce que la qualité de la solution de base d’information sur les consommations par défaut dans Linky, sera suffisante pour parvenir à créer des coûts de migration vers les services de MDE offerts par la concurrence [6]. Certes, les fournisseurs alternatifs vont pouvoir introduire des tarifs innovants. Mais EDF aussi. Une manière de surmonter cet obstacle serait de mettre en place une plateforme Linky, pour que des applications des sociétés tierces puissent dialoguer avec son système d’exploitation. Moyennant l’accord du ménage et, éventuellement, une charge d’accès aux données, l’activité serait certes régulée, mais l’entrée serait libre. Cela stimulerait l’innovation dans les services de MDE, mais n’augmenterait pas la concurrence puisque ces sociétés ne seront pas fournisseurs d’électricité. Le consommateur a-t-il beaucoup à perdre ? Evidemment, cela dépend du montant de la réduction de sa facture. Etant donnée la hausse probable de 30% des prix de l’électricité d’ici à 2017 (inflation incluse), nous craignons que les efforts des ménages en vue d’optimiser leur consommation ne seront pas récompensés. Le gain net à moyen terme pourrait être négatif.

Finalement, nous pouvons nous demander si, avec Linky, le groupe EDF n’essaie pas de maintenir sa position d’entreprise dominante dans la fourniture d’électricité, affaiblie depuis l’ouverture à la concurrence. Avec un service de MDE installé par défaut sur 95% des sites basse tension, Linky va devenir l’élément d’infrastructure du réseau national que devront emprunter tous les offreurs de service de MDE. Du point de vue des règles de la concurrence, il faut alors se poser la question de savoir si ERDF et ses partenaires ont bien communiqué l’information sur le système d’exploitation de Linky, sans favoritisme pour le groupe EDF et ses filiales (Edelia, Netseenergy). Les conteurs aimeraient nous narrer une belle histoire d’encouragement à l’innovation dans l’énergie et l’économie numérique pour réussir la transition écologique. Sachant que l’actuel PDG de l’entreprise en charge de l’architecture du système d’information de Linky, Atos, était ministre de l’économie et des finances juste avant le lancement du projet Linky en 2007, nous pouvons en douter…


[1] « Amélioration de l’efficacité énergétique » et « économie d’électricité » sont utilisées indifféremment dans ce billet. Voir l’article 2 de la directive 2012/27/UE du Parlement et du Conseil européens pour des définitions précises.

[2] Les distributeurs sont les gestionnaires des réseaux de lignes moyenne et basse tension. Le plus répandu est ERDF. Réseaux et compteurs font partie des ouvrages concédés, propriété des collectivités locales délégantes.

[3] Cependant, cela impliquera, par exemple pour ERDF, la suppression de 5 000 postes (à rapprocher des 5900 départs à la retraite … ; cf. Sénat, 2012, Rapport n° 667, Tome II, p. 294).

[4] En conformité avec la loi NOME de 2010, les fournisseurs et autres opérateurs devront être capables de baisser ponctuellement la consommation d’électricité de certains clients (couper momentanément l’alimentation d’un chauffage électrique, etc.), ce qui est appelé « effacement de consommation ».

[5] Dans les territoires où ERDF n’est pas concessionnaire, d’autres expérimentations existent, comme celle du distributeur SRD dans la Vienne qui déploie son compteur évolué, i-Ouate, sur 130 000 sites.

[6] Voir DGEC, 2013, Groupe de travail sur les compteurs électriques communicants – Document de concertation, février.

———-

a L’auteur remercie C. Blot, K. Chakir, S. Levasseur, L. Nesta, F. Saraceno, et plus particulièrement O. Brie, M.-K. Codognet et M. Deschamps. Les opinions défendues dans ce billet n’engagent que son auteur.