Quel(s) SMIC pour l’Allemagne ?

par Odile Chagny et Sabine Le Bayon

La campagne pour les élections législatives du 22 septembre en Allemagne a fait l’objet d’un large débat entre toutes les forces politiques sur la consolidation de l’Etat social. Le programme du SPD met très largement en avant la notion de justice sociale tandis que la CDU a repris dans son programme plusieurs des thèmes phares du SPD dans le domaine social. Le rôle de l’Etat social n’a jamais été aussi présent dans une campagne pour les législatives depuis 2002. Pour autant, il ne s’agit pas d’aller vers davantage d’Etat social mais d’un retour vers plus de qualité dans l’Etat social, en corrigeant certaines des conséquences négatives de l’Agenda 2010[1]. La lutte contre la pauvreté aux âges avancés (au travers de la revalorisation des avantages familiaux des mères âgées, de l’introduction d’un minimum contributif), la re-régulation de certaines formes de travail (intérim) et la nécessité de renforcer les minima salariaux (salaire minimum) se retrouvent aussi bien dans les programmes de la CDU que du SPD. Même le FDP, traditionnellement hostile à toute idée de salaire minimum, a introduit dans son programme électoral la nécessité d’un « salaire convenable même au bas de l’échelle des salaires ». Cependant, derrière cette unité apparente, les modalités de ce salaire minimum divergent largement entre les partis.

Un affaiblissement du système de négociations collectives

Dans un pays où il n’y a pas de salaire minimum interprofessionnel légal, les grilles salariales sont négociées par les partenaires sociaux au sein de chaque branche, au niveau régional ou national. Mais la baisse de la part de salariés couverts par une convention collective (53% en 2012 dans les anciens Länder, 36% dans les nouveaux Länder, contre respectivement 70% et 56% en 1996), l’affaiblissement des syndicats et le développement des formes d’emploi atypiques, notamment depuis les réformes Hartz, ont entraîné une augmentation de la part des personnes percevant un bas salaire, remettant en cause la fonction protectrice du système de négociations collectives pour toute une frange de la population. En 2010, la part des bas salaires[2] était de 22,2% en Allemagne et de 6,1% en France. La majorité des 8,1 millions de salariés concernés (Kalina et Weinkopf, 2013) sont à temps complet (45%), un quart occupent des emplois à temps partiel soumis à cotisations sociales et 30% sont employés en « mini-job ». La fourchette des salariés percevant un bas salaire (inférieur à 9,14 euros[3]) est large : 1,8 million touche moins de 5 euros par heure, 2,6 millions entre 5 et 7 euros et 2,5 millions entre 7 et 8,50 euros.

Le débat sur l’introduction d’un salaire minimum légal remonte aux années 1990. Il est cependant longtemps resté cantonné à quelques secteurs, tout particulièrement le BTP, dans une logique de lutte contre la concurrence salariale exercée par les entreprises des nouveaux pays membres de l’Union européenne, qui détachaient leurs salariés en Allemagne à des conditions de rémunérations très en deçà de celles prévues dans les négociations collectives. Il a fallu attendre le milieu des années 2000 pour que la première revendication syndicale commune pour un salaire horaire minimum interprofessionnel (de 7,5 euros l’heure) soit formulée par le DGB (la confédération des syndicats), et que les préoccupations relatives au soutien du revenu l’emportent petit à petit sur celles relatives au dumping salarial. Ce niveau a été revalorisé à 8,5 euros à compter de mai 2010.

SPD et CDU/CSU/FDP : deux visions différentes du salaire minimum

Si tous les grands partis mettent en avant la volonté d’instaurer un salaire minimum, il n’y a pas pour autant consensus sur ses modalités concrètes.

Le SPD propose l’instauration d’un salaire minimum légal de 8,5 euros de l’heure (brut), qui s’appliquerait à tous les salariés, indépendamment des minima conventionnels de branche. Il s’agit, comme l’a souligné le candidat du SPD, Peer Steinbrück, lors du débat qui l’a opposé à Angela Merkel début septembre, d’en finir avec le « patchwork des salaires minima de branche à branche et de région à région ». Quelques 6,9 millions de personnes verraient leur salaire horaire revalorisé (Kalina et Weinkopf, 2013) de 30% en moyenne et de plus de 80% pour les 1,8 million de salariés qui perçoivent moins de 5 euros de l’heure. Environ un cinquième des salariés serait concernés, dont plus de la moitié ayant un emploi « normal » (soumis à cotisations sociales). Il en résulterait un choc de revenu (pour les ménages) et de compétitivité (pour les entreprises) de grande ampleur ainsi qu’une remise en cause fondamentale de l’économie à bas salaires qui caractérise désormais certains secteurs (agriculture, agro-alimentaire, commerce de détail, hôtellerie restauration, sécurité et nettoyage, etc.).

La question du salaire minimum est de fait indissociable de celle du devenir des « mini-job », ces 7 millions d’emplois rémunérés à moins de 450 euros par mois (400 euros avant avril 2013), exonérés de cotisations salariés et d’impôt sur le revenu et qui ne permettent quasiment pas d’obtenir de droits sociaux. Dans le cas de l’introduction d’un salaire minimum interprofessionnel de 8,5 euros de l’heure, ils représenteraient près de 40% des effectifs concernés par une revalorisation de leur salaire.

On peut rappeler que l’une des mesures phares du premier gouvernement SPD-Verts conduit par Schröder avait été, en 1999, de restreindre fortement le recours aux « mini-job », accusés (i) de favoriser la précarisation de l’emploi par la substitution à des emplois normaux soumis à cotisations sociales et (ii) de ne pas offrir de couverture sociale. Trois ans plus tard, la Commission Hartz proposait d’en assouplir l’usage en vue de développer le segment des emplois peu qualifiés.

De nombreuses études ont récemment mis en évidence des violations caractérisées du droit du travail (non-respect des règles relatives aux absences maladie, aux congés payés, etc.) et des salaires horaires indécemment bas dans le cadre de ces emplois (Bäcker et Neuffer 2012[4], Bundesministerium für Familie, 2012). Il ne faut donc pas s’étonner que tous les grands partis (à l’exception du FDP) aient inclus dans leur programme électoral la volonté de réformer les « mini-jobs ». Mais alors que la CDU vise uniquement les violations du droit du travail, le programme du SPD va plus loin. L’introduction d’un salaire minimum de 8,5 euros (en brut) par heure limiterait en effet l’intérêt pour les entreprises d’avoir recours aux « mini-job ». De plus, un salaire de 8,5 euros par heure équivaudrait de fait à réintroduire une limite temporelle aux « mini-jobs », d’environ 13 heures par semaine compte tenu du plafond de rémunération mensuelle. On ne serait alors pas loin de la limite de 15 heures hebdomadaire qui avait été supprimée par la loi Hartz II en 2003…dans le cadre de l’Agenda 2010[5]. Plus globalement, c’est toute l’économie politique de ces emplois qui serait remise en cause puisque leur logique est d’offrir une rémunération d’appoint exonérée de cotisations sociales salariés dans des secteurs à faibles minima salariaux.

La proposition de la CDU sur le salaire minimum vise à faciliter l’extension des conventions existantes (c’est- à-dire à réformer la procédure par laquelle une convention collective devient obligatoire pour toutes les entreprises de la branche concernée) et à exiger des branches sans convention collective la fixation de minima salariaux. La volonté de se préserver contre la concurrence salariale exercée par les entreprises n’adhérant pas aux conventions collectives et par les entreprises des pays de l’Est détachant en Allemagne leurs salariés[6] a conduit plusieurs branches à recourir au cours des années récentes à ces procédures d’extension. Or, alors que cette extension est quasi automatique en France, c’est loin d’être le cas en Allemagne, même si cette procédure a été simplifiée en 2009. Pour la CDU, c’est donc une logique de moindre peine qui est proposée, c’est-à-dire d’intervention de l’Etat dans les seuls cas de défaillance des partenaires sociaux. Le but est de pallier les situations de « vide conventionnel » et de permettre à un maximum de salariés d’être rémunérés en fonction des minima conventionnels, tout en laissant aux partenaires sociaux le soin d’en fixer le niveau, puisque la CDU estime que des salaires minima différenciés permettent de tenir compte au mieux de la diversité des situations régionales et sectorielles.

La CDU, qui ne pourra vraisemblablement pas gouverner seule durant la prochaine législature, ne s’avance pour l’instant pas plus sur ce sujet dans l’attente du résultat des élections. Selon le parti avec lequel elle gouvernera, les choix en termes de régulation des bas salaires devraient en effet être très différents.

On peut rappeler ici les nombreuses limites du système actuel de procédure d’extension par l’Etat, dans lequel s’inscrit la proposition de la CDU :

  • – Lorsque plusieurs conventions collectives au sein d’une même branche existent, la procédure d’extension devient plus délicate puisqu’il s’agit de déterminer laquelle est la plus représentative, ce qui peut donner lieu à controverses. Cela a été le cas dans le secteur postal où deux conventions collectives concurrentes coexistaient, l’une couvrant les salariés de Deutsche Post, l’ancien monopole dans ce secteur, l’autre concernant les salariés des entreprises concurrentes et où les salaires minima étaient bien inférieurs. Le gouvernement avait décidé d’étendre à l’ensemble du secteur la convention signée au sein de Deutsche Post. Les entreprises concurrentes ont porté plainte et la procédure d’extension a été invalidée par le Tribunal de Berlin[7].
  • – Les négociations concernant les salaires minimaux de branche sont reconduites régulièrement (par semestre ou pour une ou plusieurs années). Or, quand les renégociations n’aboutissent pas, il peut s’écouler plusieurs mois pendant lesquels aucun minimum n’est en vigueur et les employeurs en ont parfois profité pour embaucher des salariés 30 % moins chers que les minima précédents. Ce fut par exemple le cas fin 2009 dans la branche du nettoyage industriel (Bosch et Weinkopf 2012).
  • – Les minima de branche sont très variables et certains d’entre eux ne permettent pas de protéger les salariés contre le risque de pauvreté. Ainsi, selon les données du WSI- Tarifarchiv (mars 2013), 11% des conventions collectives fin 2012 prévoyaient des minima inférieurs à 8,50 euros, le seuil proposé comme salaire minimum légal par le SPD, lui-même inférieur au seuil de bas salaire (9,14 euros).

L’effet des propositions des différents partis sur l’évolution de l’emploi est difficile à estimer à partir des études conduites récemment en Allemagne (Bosch et Weinkopf 2012), ne serait-ce que parce que ces dernières avaient porté sur l’introduction de minima salariaux dans des branches isolées, avec une proportion de salariés concernés réduite. Cela serait sans commune mesure avec l’introduction d’un salaire minimum interprofessionnel touchant au moins un quart des salariés, et non différencié, ou même avec la généralisation de minima conventionnels. Le but est bien dorénavant que le maximum de salariés touche un salaire « décent », même si le niveau de ce dernier diffère selon les programmes. Il est aussi de faire reculer certaines formes d’emploi atypiques. Notamment, dans plusieurs secteurs, les études qui ont été réalisées montrent que l’introduction d’un salaire minimum a conduit à une modification de la structure de l’emploi avec moins de « mini-jobs » et plus d’emplois « normaux » (soumis à cotisations sociales), du fait des contrôles réguliers effectués pour vérifier le respect des minima salariaux dans les entreprises. Quels que soient les résultats des élections, les mesures adoptées iront en tout cas dans le sens d’une correction des injustices les plus flagrantes en termes de rémunérations salariales, notamment concernant les « mini-jobs ».

 

 

 

 


[1] L’Agenda 2010 regroupe l’ensemble de réformes menées en Allemagne par la coalition SPD-Verts entre 2003 et 2005, qui portaient principalement sur les réformes du marché du travail (réformes dites Hartz) (pour plus de détails, voir par exemple Hege 2012, Chagny 2008).

[2] Il s’agit des salariés percevant moins des 2/3 du salaire horaire brut médian.

[3] Pour mémoire, le salaire horaire brut médian était de 13,7 euros en 2011 en Allemagne.

[4] « Von der Sonderregelung zur Beschäftigungsnorm : Minijobs im deutschen Sozialstaat », WSI Mitteilungen 1/2012.

[5] Sans mentionner le fait qu’il en résulterait la nécessité de repenser complètement le soutien aux bas salaires via les exonérations de cotisations sociales salariés.

[6] Lorsque les entreprises d’un Etat membre envoient leurs travailleurs dans un autre Etat, elles sont tenues de respecter des normes minimales (temps de travail, salaires). Le détachement des travailleurs est encadré par la directive européenne de 1996. Ces détachements qui augmentent posent de nombreux problèmes (dumping social, concurrence déloyale, conditions de travail dégradées). (Metis 2013).

[7] Pour plus de détails, voir : “Vrais et faux enjeux de la controverse sur les salaires minima légaux en RFA”, Karl Brenke, Regards sur l’économie allemande, n° 94, 2009.




Encadrement des loyers : l’ALUR suffit-elle ?

par Sabine Le Bayon, Pierre Madec et Christine Rifflart

Le 10 septembre 2013, a débuté au Parlement la discussion du projet de loi “Accès au Logement et un Urbanisme Rénové” (ALUR). Cette loi va se traduire par un interventionnisme plus prononcé sur le marché du logement locatif privé et vient compléter le décret, entré en vigueur à l’été 2012, sur l’encadrement des loyers en zones tendues et qui avait marqué une première étape dans la volonté du gouvernement d’enrayer la hausse des dépenses de logement des locataires[1].

La volonté du gouvernement d’encadrer les dérives du marché locatif privé devrait avoir rapidement un impact pour les ménages qui s’installent dans un nouveau logement. Pour les locataires en place, le processus devrait être plus long. Au final, dans une agglomération comme Paris, on peut s’attendre, si les loyers les plus élevés diminuent au niveau du plafond défini par la loi, à une baisse de 4 à 6% du loyer moyen. Si, par un effet d’entraînement, cela se répercute ensuite sur l’ensemble des loyers, l’impact désinflationniste sera plus fort. En revanche, le risque d’une dérive haussière sur les plus bas loyers n’est pas à écarter, même si le gouvernement s’en défend. Enfin, l’impact de la loi dépendra en grande partie du zonage défini par les observatoires des loyers dont la mise en place est en cours.

Le décret d’encadrement : un effet visible … mais minime

Le dernier rapport annuel de l’Observatoire des loyers de l’agglomération parisienne (OLAP)[2] nous donne un premier éclairage de l’impact du décret sur l’encadrement des loyers. Pour rappel, le décret contraint les loyers à la relocation à augmenter au maximum au rythme de l’indice légal de référence (IRL), sauf si des travaux importants ont été réalisés (dans ce cas, la hausse est libre). Ainsi, entre le 1er janvier 2012 et le 1er janvier 2013, 51 % des logements parisiens proposés à la relocation ont vu leur loyer augmenter plus vite que l’IRL, et ce sans réalisation de travaux importants. Cette part a été moins élevée qu’en 2011 (58,3 %) et 2010 (59,4 %), mais elle demeure à un niveau proche de ceux observés entre 2005 et 2009 (50%), avant l’existence du décret.

L’impact semble un peu plus concluant à partir des données mensuelles. Ainsi, sur la période d’application du décret d’août à décembre 2012, la part des loyers proposés à la relocation et ayant augmenté plus vite que l’IRL a baissé de 25 % en moyenne sur un an, contre seulement 8 % sur les mois de janvier à juillet 2012, comparés à la même période de 2011.

Un « effet décret » a donc bien eu lieu.  Celui-ci aurait permis de faire baisser la part des hausses de loyers à la relocation supérieures à l’IRL d’environ 18%. Pour autant, si l’on considère, qu’en cas de respect total du décret, aucune hausse supérieure à l’IRL n’aurait dû persister, l’impact reste insuffisant. Plusieurs facteurs déjà identifiés dans un document de travail, peuvent expliquer cela : loyers de référence inexistants, manque d’information tant du propriétaire que du locataire, insuffisance des possibilités de recours, etc. Un an après, il s’avère que ces manquements ont joué négativement sur l’application de la mesure.

Une loi à l’envergure plus large

La grande nouveauté du projet de loi ALUR porte sur l’encadrement des niveaux de loyers dans les zones tendues alors que les précédents décrets ne portaient que sur leur évolution. Désormais, une fourchette de niveaux de loyers autorisés sera fixée par la loi et le décret viendra encadrer les évolutions maximales autorisées[3]. Pour cela, le gouvernement fixe chaque année par arrêté préfectoral un loyer médian de référence au m2, par secteur géographique (quartier, arrondissement, …) et par type de logement (1 pièce, 2 pièces,..). Ainsi,

  • – pour les nouvelles locations ou les relocations, le loyer ne pourra excéder le loyer médian de référence majoré au plus de 20%, sauf à justifier d’un complément de loyer exceptionnel (prestations particulières,…). Ensuite, l’augmentation ne pourra excéder l’IRL conformément au décret d’encadrement dans les zones tendues (sauf travaux) ;
  • – lors du renouvellement de bail, le loyer pourra être réajusté à la hausse ou à la baisse en fonction du loyer médian de référence majoré ou minoré[4]. Ainsi, un locataire (respectivement un bailleur) pourra engager un recours en diminution (resp. en augmentation) de loyer si ce dernier est supérieur (resp. inférieur) au loyer médian majoré (resp. minoré). En cas de hausse de loyer, un mécanisme d’étalement de cette hausse dans le temps est prévu. S’il y a un désaccord entre locataires et bailleurs, un règlement à l’amiable pourra être engagé, préalablement à la saisine d’un juge dans des délais strictement déterminés. A l’intérieur de la fourchette, la hausse est limitée à l’IRL ;
  • – en cours de bail, la révision annuelle du loyer se fait comme actuellement sur la base de l’IRL ;
  • – les locations meublées seront désormais concernées par l’encadrement : le préfet fixera un loyer de référence majoré et la révision sera limitée à l’IRL.

L’introduction de ces loyers médians de référence présente trois avancées majeures. D’une part, ils seront calculés à partir des informations recueillies par les observatoires des loyers sur l’ensemble du stock du parc locatif, et non à partir des seuls logements vacants et disponibles à la location, c’est-à-dire des loyers dits « de marché ». Or, ces loyers de marché sont supérieurs de près de 10 % à la moyenne de l’ensemble des loyers, elle-même supérieure à la médiane des loyers. Ce mode de calcul entraînera donc inéluctablement une baisse des loyers (de marché et moyens).

De même, le choix opéré de la médiane et non de la moyenne comme loyer de référence va dans le sens d’une plus grande stabilité de la mesure. Dans l’hypothèse où l’ensemble des loyers supérieurs de 20% à la médiane (donc au loyer de référence majoré) vient à baisser et où les autres loyers restent inchangés, la médiane reste identique. Dans le cas d’un ajustement de l’ensemble des loyers, la médiane viendrait à baisser mais dans des proportions moindres que la moyenne, par définition plus sensible à l’évolution des valeurs extrêmes.

Enfin, l’obligation d’inscrire dans le bail les loyers médian et médian majoré de référence, le dernier loyer pratiqué et si nécessaire, le montant et la nature des travaux effectués depuis la signature du dernier contrat, accroît la transparence et établit un cadre réglementaire plus strict qui devrait entraîner un plus grand respect de la mesure.

Quelles évolutions sont à attendre ?

En 2012, sur les 390 000 logements mis en location à Paris, 94 000 ont un loyer supérieur au loyer médian majoré (3,7 euros/m² de plus en moyenne) et 32 000 ont un loyer inférieur de plus de 30% au loyer médian de référence (2,4 euros/m² de moins en moyenne). En considérant que seuls les loyers supérieurs au loyer médian majoré seront corrigés, la baisse du loyer moyen pourrait être de 4% à 6% selon les zones et le type de logement. Cette diminution, bien que non négligeable, permettrait au mieux de revenir aux niveaux de loyers observés en 2010, avant la forte inflation des années 2011 et 2012 (+7,5% entre 2010 et 2012). Cet ajustement des loyers pourrait néanmoins prendre du temps. Propriétaires et locataires pourront facilement faire valoir leurs droits au moment d’une relocation[5] , mais les réévaluations lors du renouvellement de bail pourraient être plus lentes à mettre en place. Malgré un accès à l’information et un cadre réglementaire plus favorables au locataire, le risque d’un conflit avec le propriétaire et la concurrence exacerbée sur le marché locatif dans les zones où s’applique la loi, peuvent encore dissuader certains locataires de faire valoir leurs droits.

La question est beaucoup plus complexe pour les 32 000 logements dont les loyers sont inférieurs au loyer de référence minoré. Si la qualité de certains logements peut justifier cet écart (insalubrité, localisation,…), on sait également que la sédentarité des locataires est le principal facteur explicatif de la faiblesse de certains loyers. Ainsi, selon l’OLAP, à Paris, un logement occupé depuis plus de 10 ans par le même locataire a en moyenne un loyer inférieur de 20 % au loyer moyen de l’ensemble des locations. Dès lors, la question de la réévaluation de ces loyers se pose. En effet, la loi permet au propriétaire, en contradiction d’ailleurs avec le décret[6], de réévaluer, lors d’une relocation ou d’un renouvellement de bail, à hauteur du loyer médian minoré. Une fois ce dernier atteint, l’évolution ne pourra excéder l’IRL. A terme, certains logements aux caractéristiques équivalentes seront donc sur le marché à des loyers très disparates, pénalisant ainsi les bailleurs de locataires sédentaires. A contrario, les locataires présents depuis longtemps dans leur logement ont le risque de voir leur loyer fortement réévalué (supérieur à 10%). Les taux d’effort[7] de ces ménages risquent alors d’augmenter, poussant ainsi ceux à la contrainte budgétaire trop forte à émigrer vers des zones moins tendues.

Néanmoins, la possibilité de réajuster le loyer au niveau du loyer de marché, dans le cas d’une sous-évaluation manifeste, existe déjà dans le cadre de la loi actuelle du 6 juillet 1989 (article 17c) au moment du renouvellement de bail. En 2012, à Paris, 3,2 % des propriétaires ont eu recours à cet article. Avec la nouvelle loi, si les réajustements devraient être plus nombreux, l’impact inflationniste devrait être plus faible puisque la référence (le loyer médian minoré) est largement inférieure au loyer de marché.

Dès lors, la question du zonage est centrale. Plus le découpage sera fin, plus les loyers de référence correspondront aux caractéristiques réelles du marché local. Dans l’hypothèse d’un large découpage du territoire, les loyers médians de référence risquent d’être trop élevés pour les quartiers les moins chers et trop bas pour les quartiers les plus chers. Parallèlement, les faibles loyers seraient peu revalorisés dans les quartiers chers et plus franchement dans les quartiers qui le sont moins. Cela pourrait entraîner alors un rapprochement des loyers « inter quartiers » – indépendamment des caractéristiques locales – et non « intra quartiers ». Conséquences néfastes tant pour le propriétaire bailleur que pour le locataire.

La loi en discussion actuellement pourrait avoir d’autant plus d’impact sur les loyers que les prix immobiliers ont entamé une baisse en France en 2012 et que la conjoncture actuelle morose freine déjà les hausses de loyer. Mais, faut-il encore le rappeler, seule la construction de logements dans les zones tendues (y compris via une densification[8]) résoudra les problèmes structurels de ce marché. Les mesures d’encadrement des loyers ne sont qu’un moyen temporaire de limiter la hausse des taux d’effort mais elles ne sont pas à elles seules suffisantes.

 


[1] Pour plus de détails, voir le post “L’encadrement des loyers : quels effets en attendre?“.

[2] Le territoire couvert par ce rapport est composé de Paris, la petite couronne et la grande couronne parisienne.

[3] Le décret d’encadrement des loyers n’ayant pas le même champ d’action que la loi (38 agglomérations contre 28), certains territoires ne seront soumis qu’à l’encadrement des évolutions et non des niveaux.

[4] Si le projet de loi restait flou sur le calcul du loyer de référence minoré, un amendement adopté en juillet par la Commission de l’Assemblée propose que le loyer médian minoré soit inférieur d’au moins 30 % au loyer médian de référence. Un autre amendement précise qu’en cas de réajustement à la hausse, le nouveau loyer ne pourra excéder ce loyer médian minoré.

[5] En 2012, seul 18% des logements du parc locatif privé ont été l’objet d’une relocation.

[6] Lors du renouvellement de bail et de la relocation, le décret d’encadrement permet au propriétaire de réévaluer son loyer de la moitié de l’écart qui le sépare du loyer de marché.

[7] Il s’agit de la part du revenu du ménage consacré au logement.

[8] Sur ce sujet, voir l’article de Xavier Timbeau, “Comment construire (au moins) un million de logements en région parisienne”, Revue de l’OFCE n°128.




De la monnaie cosmopolitique

Par Maxime Parodi, sociologue à l’OFCE

Une monnaie cosmopolitique est une monnaie commune à plusieurs nations et fondée explicitement sur une forme de co-souveraineté (pour une analyse approfondie voir le working paper de l’OFCE, 2013-09, juin 2013). Une telle monnaie n’est possible qu’en acceptant une politique monétaire et des politiques budgétaires et fiscales fondées sur des raisons partagées, où chacun est responsable des engagements monétaires qu’il prend et co-responsable de la capacité de chacun à mener une politique économique adéquate. Pour durer, cette monnaie exige une attention soutenue sur les divergences macroéconomiques entre les partenaires et les difficultés que rencontre chacun ; elle impose une concertation ouverte sur les raisons de ces divergences et de ces difficultés ; elle nécessite une force de propositions sur les remèdes possibles, à court, moyen et long terme ; enfin, elle exige la coopération volontaire de chacun, à condition toutefois d’en avoir la capacité.

De tous les sociologues classiques, seul Simmel aurait pu envisager une telle monnaie. En effet, il est le seul à étudier la socialisation en elle-même, à vouloir comprendre la société en train de se faire tandis que Durkheim partait d’une société toujours déjà constituée, d’un individu toujours déjà socialisé et Weber partait d’individus toujours déjà constitués, « terminés », sans les considérer aussi comme des sujets susceptibles de s’influencer mutuellement pour faire délibérément société. Or une union cosmopolitique est précisément une union toujours en train de se faire ; elle n’est jamais définitivement constituée. Ce type d’union est donc fragile par essence mais, en même temps, elle n’apparaît jamais que dans les contextes où elle s’impose objectivement aux citoyens. L’union est sans cesse renouvelée, remise à l’ouvrage, parce qu’il y a un terreau objectif d’intérêts voisins ou transversaux et que, par conséquent, chacun juge souhaitable de résoudre au mieux les problèmes de voisinage. Dès lors, au nom de l’union, il devient possible de régler certains conflits avec équité et de resserrer les liens.

Dans cette optique, le fait d’adopter une monnaie commune n’est pas un acte anodin au sein d’une union cosmopolitique. D’un coup, chacun s’engage à respecter ses promesses monétaires à l’égard de ses voisins. C’est évidemment un grand bouleversement, qui a des conséquences immédiates et prévisibles : les coûts de transaction entre les partenaires s’effondrent, en particulier il n’y a plus de risque lié à la détention d’une devise étrangère puisque la devise est maintenant commune et garantie politiquement. Mais il y a aussi des conséquences moins immédiates, plus souterraines. Ainsi, cet engagement commun remet souvent en cause la culture économique des nations concernées en les obligeant à expliciter certains de leur mode de fonctionnement : des gouvernements habitués à résoudre leurs problèmes par l’inflation ou la dévaluation doivent dorénavant dire à leurs citoyens qu’il faut augmenter les taxes ou dépenser moins ; des banques « trop grosses pour faire faillite » doivent maintenant rédiger des testaments au lieu de compter sur la garantie implicite des citoyens… Enfin, la monnaie cosmopolitique crée un nouveau lien entre les partenaires, qui les conduit en principe à se soucier de leurs voisins. De fait, les partenaires ne se sont pas simplement engagés à respecter leurs promesses envers chacun, mais aussi à ce que chacun soit en mesure de respecter les siennes (puisque la confiance ne se divise pas).

Aussi la monnaie cosmopolitique introduit une sorte de solidarité au sein de l’union. Il faut désormais se soucier que son voisin soit en capacité de tenir ses engagements monétaires. Ceci implique de garantir à celui-ci une capacité d’endettement et/ou un flux d’investissement sur son territoire. Mais, à la différence des solidarités au sein d’une nation, cette garantie-ci est plus morale que juridique : elle n’est pas entièrement gravée dans le marbre de l’union, mais doit être discutée au cas par cas. Le risque d’aléa moral est ainsi écarté.

L’euro apparaît comme le cas paradigmatique d’une monnaie cosmopolitique. C’est même le seul cas au travers de l’histoire où le cosmopolitisme fonde véritablement la monnaie. Ce caractère inédit pose d’ailleurs des difficultés en bousculant les cultures économiques nationales. Depuis les débuts de la crise monétaire, en 2008, chacun découvre comment les institutions verticales (Conseil européen, BCE) abordent les problèmes et mettent en œuvre des réponses. Une culture de l’euro se forge-là, presque une jurisprudence. C’est pourquoi, d’ailleurs, le Conseil européen devrait s’interroger sur le poids de ses décisions sur cette culture naissante : la zone euro est-elle en train d’adopter une coutume des « retours immédiats » ? Une doctrine née de la défiance ? Si une monnaie cosmopolitique est possible, encore faut-il en accepter les deux faces – la co-responsabilité autant que la responsabilité.

 




Chocs, chômage et ajustement, les limites de l’union monétaire européenne

Par Christophe Blot

Dans un article paru en 2013 dans Open Economies Review[1], C. A. E. Goodhart et D. J. Lee comparent les mécanismes de sortie de crise aux Etats-Unis et en Europe. S’appuyant sur une comparaison de la situation de trois Etats (l’Arizona, l’Espagne et la Lettonie) confrontés à un krach immobilier et à une récession, les auteurs explorent les raisons de la divergence croissante observée entre les pays de la zone euro, divergence qui ne se retrouve pas aux Etats-Unis. Leur analyse s’appuie sur les critères de zones monétaires optimales permettant aux membres d’une union monétaire de s’ajuster en cas de choc négatif, et ainsi d’éviter une divergence pérenne de leur taux de chômage lors d’un ralentissement ou d’un recul de l’activité. Si la Lettonie ne fait pas formellement partie d’une union monétaire[2], sa monnaie est cependant restée solidement ancrée à l’euro pendant la crise. Ainsi, aucun des Etats étudiés par Goodhart et Lee n’a eu recours à une dévaluation nominale pour absorber les chocs financiers et réels auxquels ils ont été confrontés. Ils concluent que si l’Arizona a mieux absorbé les chocs que l’Espagne, c’est à la fois en raison de la plus grande solidarité fiscale qui existe entre les Etats des Etats-Unis et de la plus forte intégration du système bancaire américain qui contribue à amortir les chocs spécifiques à chaque Etat.

Outre l’appartenance de jure ou de facto à une union monétaire, l’Arizona, l’Espagne et la Lettonie ont en commun d’avoir enregistré un boom immobilier dans les années 2000 suivi d’une correction qui a débuté dès 2006 dans l’Arizona et en Lettonie, et un an plus tard en Espagne (graphique 1). La crise immobilière s’accompagne d’une récession et l’on retrouve le même décalage entre l’Espagne et les deux autres Etats. La Lettonie a enregistré la baisse d’activité la plus forte (-21 % entre 2007 et 2010). En revanche, les pertes d’activité enregistrées par l’Arizona (-5,5 % depuis 2007) et l’Espagne (-5 % depuis 2008) sont comparables. Tandis que l’ajustement à la baisse du marché immobilier a cessé en Arizona (la reprise est enclenchée dans l’Etat américain), la récession se poursuit en Espagne. Au total, cette différence dans l’ajustement se traduit par une hausse continue du chômage en Espagne alors qu’il a baissé de 2,8 points en Arizona depuis le pic atteint au premier trimestre 2010 (graphique 2).

L’enlisement de l’Espagne dans la récession et la divergence croissante des économies dans la zone euro pose la question de la capacité des pays de la zone euro à s’ajuster en cas de choc négatif. La théorie des zones monétaires optimales, initialement développée par Mundell en 1961[3], permet d’évaluer les conditions sous lesquelles un pays peut avoir intérêt à adhérer à une union monétaire. L’optimalité de ce choix dépend de la capacité du pays à absorber les chocs sans avoir recours à une dévaluation de la monnaie. Différents mécanismes d’ajustement sont mis en exergue. Il s’agit principalement[4] de la flexibilité des prix et en particulier des salaires, de la mobilité du facteur travail, de l’existence de transferts budgétaires entre les pays de l’union monétaire et de l’intégration financière. La flexibilité des prix correspond à un mécanisme de dévaluation interne. Comme pour la dépréciation de la monnaie, il s’agit de gagner en compétitivité – par une baisse du coût du travail relatif – pour stimuler les exportations et la croissance lorsque survient un choc négatif. Néanmoins, ce type d’ajustement est généralement bien plus long et coûteux comme le suggèrent les exemples récents de l’Islande et de l’Irlande[5]. La mobilité du travail permet l’ajustement dès lors que la récession conduit des personnes à migrer des Etats où le chômage est élevé vers celui où il est plus faible. La mise en œuvre de transferts budgétaires résulte de l’ensemble des mécanismes permettant aux Etats où la croissance ralentit de bénéficier de transferts stabilisateurs en provenance des autres Etats de l’union ou d’un échelon de gouvernement supérieur. Enfin, Goodhart et Lee considèrent également le rôle stabilisateur du système bancaire local. En l’occurrence, au sein de la zone euro, moins le système bancaire local est fragilisé par la crise immobilière ou celle des dettes publiques, meilleure est l’absorption des chocs.

Les auteurs analysent l’ajustement des économies considérées à l’aune de ces quatre critères. Ils étudient notamment le degré de flexibilité des prix et de mobilité du travail en fonction du chômage dans les trois Etats. Puis ils évaluent l’importance des transferts budgétaires et l’architecture du paysage bancaire. Leurs conclusions sont les suivantes :

  1.  La flexibilité des prix n’a joué que marginalement dans l’ajustement sauf en Lettonie où la hausse du chômage a entraîné une baisse du coût unitaire du travail. Ces coûts n’ont par contre pas réagi significativement à l’augmentation du chômage en Espagne et dans l’Arizona.
  2.  Si les migrations sont plus fortes au sein des Etats-Unis qu’en Europe, les différences ne permettent toutefois pas d’expliquer l’écart d’ajustement des taux de chômage. Il ressort cependant que le rôle des migrations en tant que mécanisme d’ajustement se serait renforcé en Europe. Il reste qu’elles sont insuffisantes pour assurer la convergence des taux de chômage.
  3. En 2009 et 2010, l’Arizona a bénéficié d’importants transferts du gouvernement fédéral alors qu’au niveau européen, il n’existe aucun mécanisme automatique de transferts entre Etats. Toutefois, la Lettonie a bénéficié de l’assistance du FMI en 2009 tandis que les pays de la zone euro sont venus au chevet des banques espagnoles. Il reste qu’en l’absence de budget européen conséquent, les pays européens ne peuvent bénéficier que de plans d’aide d’urgence qui, certes, permettent de répondre à un besoin de financement, mais sont insuffisants pour jouer le rôle de stabilisateur économique.
  4. Enfin, les auteurs soulignent que l’amplification financière des chocs a été moindre en Arizona dans la mesure où l’essentiel de l’activité bancaire y est réalisée par des banques nationales qui sont de fait moins sensibles aux conditions macroéconomiques et financières locales. Le risque de rationnement du crédit est alors atténué, ce qui permet de mieux absorber le choc initial. En Espagne, à l’exception de quelques banques ayant une activité internationale, qui leur permet de diversifier les risques, l’activité bancaire dépend de banques locales qui sont de fait plus vulnérables. Cette fragilité accrue pousse les banques à restreindre l’accès au crédit, ce qui renforce le choc initial. La Lettonie se trouve dans une position alternative dans la mesure où l’activité financière est essentiellement réalisée par des banques étrangères. La nature du risque est alors différente puisque l’activité financière locale est déconnectée des conditions macroéconomiques lettones mais dépend de celles du pays où ces banques – suédoises dans une forte proportion – exercent leur activité principale.

La crise de la zone euro a donc bien une dimension institutionnelle. A partir du moment où les pays ont librement consenti à abandonner leur souveraineté monétaire, ils ont aussi refusé de recourir à la dévaluation de la monnaie pour amortir les récessions. Il est cependant indispensable que des mécanismes d’ajustement alternatifs opèrent afin de garantir la « soutenabilité » de l’unification monétaire. L’article écrit par Goodhart et Lee rappelle à cet égard que ces mécanismes font encore défaut dans la zone euro. Les négociations autour du budget européen n’ont ouvert aucune perspective pour la mise en œuvre de transferts fiscaux permettant de stabiliser les chocs au niveau européen. La discussion sur les Eurobonds est au point mort. Si le MES (Mécanisme européen de stabilité) est bien un outil de solidarité entre les Etats membres, il répond à une problématique différente puisqu’il s’agit uniquement d’une aide financière d’urgence et non d’un mécanisme de stabilisation automatique. L’intégration bancaire pourrait aussi permettre d’amortir les fluctuations. Cependant, la crise a entraîné une fragmentation accrue des marchés bancaires européens. Le dernier rapport sur l’intégration financière en Europe, publié par la BCE, révèle une baisse des flux bancaires transfrontaliers de 30 % au cours de la période récente. De même, malgré la politique monétaire commune, les taux appliqués aux crédits par les banques européennes ont divergé récemment[6] (graphique 3). Ainsi, malgré le passeport bancaire européen issu de la directive européenne du 15 décembre 1989 en matière de reconnaissance mutuelle des agréments délivrés aux établissements de crédit, l’activité bancaire transfrontalière reste peu développée à l’échelle européenne. Le modèle de banque de détail s’appuie sur l’existence de relations de long terme entre la banque et ses clients, ce qui explique sans doute pourquoi le processus d’intégration est beaucoup plus long que pour les marchés obligataires, monétaires ou d’actions. Il reste cependant que l’union bancaire pourrait constituer une étape supplémentaire dans ce difficile processus d’intégration. Cela favoriserait le développement d’une activité transnationale, ce qui permettrait aussi de déconnecter les problèmes de solvabilité et de liquidité des banques et ceux du financement de la dette publique.

graph1_1110CBblog

graph2_1110CBblog

graph3b_1110CBblog

 

___________________________________

[1] « Adjustment mechanisms in a currency area », Open Economies Review, January 2013. Une version préliminaire de l’article peut être téléchargée ici : http://www.lse.ac.uk/fmg/workingPapers/specialPapers/PDF/SP212.pdf

[2] La Lettonie participe depuis 2005 au mécanisme de change européen et devrait adopter l’euro au 1er janvier 2014.

[3] « A theory of optimum currency areas », American Economic Review,  vol. 51, 1961.

[4] On peut aussi ajouter le taux d’ouverture de l’économie ou le degré de diversification de la production.  Mongelli (2002) propose une revue détaillée de ces différents critères. Voir : « New views on the optimum currency area theory : what is EMU telling us ? » ECB Working Paper, n° 138.

[5] Voir Blot et Antonin (2013) pour une analyse comparative des cas irlandais et islandais.

[6] C. Blot et F. Labondance (2013) proposent une analyse de la transmission de la politique monétaire aux taux appliqués par les banques aux sociétés non financières (voir ici) aux prêts immobiliers (voir ici).




Le solaire refroidit les relations sino-européennes

par Sarah Guillou

Début juillet 2013, c’est encore une entreprise de l’industrie du solaire, Conergy, qui est déclarée en faillite. La sortie de cette entreprise allemande, créée en 1998, illustre la fin d’un cycle pour l’industrie solaire. Cette faillite s’ajoute à une série de fermetures et de liquidations, tous pays confondus, qui ont ponctué la montée de la tension commerciale entre les Etats-Unis et l’Europe d’un côté et la Chine de l’autre au sujet des panneaux solaires (voir La Note de l’OFCE : « Le crépuscule de l’industrie solaire, idole des gouvernements », n° 32 du 6 septembre 2013). Au sommet de cette tension, en mai, la Commission européenne a décidé de menacer la Chine de droits de douanes de plus de 45 %. La guerre commerciale conclut une décennie d’engagements des gouvernements comme s’il s’agissait de sauver les deniers publics investis. Mais, elle signe surtout l’échec industriel d’une politique énergétique mondiale non coopérative.

Des débuts industriels prometteurs mais chaotiques

Amorcée au début des années 2000, l’idolâtrie gouvernementale en faveur du solaire, partagée des deux côtés de l’Atlantique, mais aussi dans les économies émergentes (et singulièrement la Chine) a certes propulsé l’énergie solaire au premier rang des énergies renouvelables, mais a aussi alimenté de nombreux déséquilibres de marché et de fortes turbulences industrielles. Alors que le prix du pétrole ne cessait d’augmenter de 2000 à 2010, la nécessité d’accélérer la transition énergétique et les engagements du protocole de Kyoto ont poussé les gouvernements à soutenir la production d’énergie renouvelable dont l’énergie solaire a été la grande bénéficiaire. De fait, l’industrie mondiale a connu une croissance gigantesque depuis 2004 : elle a crû de plus de 600 % de 2004 à 2011.

Le soutien public, accompagné d’investissements privés, a suscité des entrées massives sur le marché qui ont déstabilisé le prix de la ressource principale, le silicium, dont la quantité ne pouvait s’ajuster aussi rapidement. Les fluctuations du prix du silicium au gré des déséquilibres sur le marché des panneaux photovoltaïques ont créé une grande instabilité d’approvisionnement de la ressource principale s’ajoutant à l’incertitude technologique des entreprises qui cherchaient à innover dans le secteur (comme l’entreprise américaine Solyndra qui a finalement déposé le bilan en 2013).

La guerre commerciale pour une étoile

L’accélération de la domination chinoise sur l’industrie a pour sa part affecté  l’incertitude concurrentielle. La Chine est aujourd’hui le premier marché mondial et l’implication du gouvernement chinois dans le développement de l’industrie est sans égal. Aujourd’hui troisième pays au classement en termes de capacités installées (après l’Allemagne et l’Italie), la Chine est également le premier producteur mondial de panneaux solaires. Elle totalise aujourd’hui la moitié de la production mondiale de panneaux alors qu’elle en produisait seulement 6 % en 2005. Les producteurs chinois ont bénéficié d’un soutien massif des gouvernements central et locaux, ce qui a aussi participé à saturer le marché chinois.

La Chine, au-delà du soutien public, bénéficie d’un indéniable avantage de coût du travail qui rend l’activité de fabrication de panneaux solaires très compétitive – les étapes plus intenses en technologie se situent en amont dans cette industrie au niveau de la cristallisation du silicium et du découpage en tranches. Outre cet avantage compétitif, les producteurs chinois sont accusés de dumping, c’est-à-dire de vendre en dessous du coût de production. Leur compétitivité est donc sans égal mais … de plus en plus contestée. Les Etats-Unis ont décidé en octobre 2012 d’imposer des droits de douane sur les importations de cellules et de modules chinois faisant varier les taxes anti-dumping de 18,3 à 250% (pour les nouveaux entrants) selon les entreprises.

L’Europe, qui importe beaucoup plus d’éléments photovoltaïques de Chine que les Etats-Unis, a tout d’abord décidé de s’orienter vers l’imposition de droits anti-dumping et a ouvert une enquête en septembre 2012, déclenchée par une plainte d’EU ProSun – une association sectorielle de 25 fabricants européens de modules solaires – concernant les importations de panneaux et de modules en provenance de Chine. La Commission a finalement décidé en juin 2013 d’imposer un droit de douane de 11,2% sur les panneaux solaires tout en menaçant de le faire grimper à 47% si la Chine ne modifiait pas sa position en termes de prix d’ici le 6 août .

La contre-attaque de l’Empire

La contre-attaque n’a pas tardé : la Chine a décidé en juillet 2013 d’instaurer des droits anti-dumping sur les importations de silicium en provenance des Etats-Unis et de la Corée du Sud. La menace plane aussi sérieusement sur les acteurs européens : la Chine est un des plus gros marchés pour les exportateurs de silicium européen (870 millions de dollars en 2011).

Cette guerre commerciale révèle essentiellement une position défensive des concurrents industriels de la Chine face à une politique de soutien qu’ils jugent disproportionnée et déloyale et ceci alors que la Chine n’a cessé ces dix dernières années de grignoter les emplois industriels de ses concurrents. Mais on peut évidemment s’interroger sur la logique industrielle de cette politique commerciale.

Tout d’abord, elle contredit les précédentes politiques des gouvernements en matière de promotion de l’énergie solaire. L’arbitrage entre les objectifs du changement climatique (disposer des outils de transition énergétique à bas coût) et la rentabilité et pérennité de l’industrie semble avoir été tranché en faveur du second. Ensuite, elle soutient cette fois-ci les producteurs directement mais pourrait handicaper les installateurs, les cabinets d’études préalables à l’installation et les fabricants de panneaux à partir de composants chinois. Enfin, elle expose sérieusement à des représailles commerciales qui pourraient coûter cher, que ce soit aux exportateurs de silicium poly-cristallin, de machines servant à l’industrie solaire ou encore d’autres industries comme le vin ou les voitures de luxe.

Par crainte d’une probable non approbation d’une majorité des pays membres ou pour « fouetter d’autres dragons » plus librement (le conflit des télécoms à venir), l’accord obtenu fin juillet par le Commissaire Karel De Gucht et validé par la Commission européenne le 2 août, ne devrait pas entraîner de représailles commerciales ni perturber trop fortement l’approvisionnement du marché. Il engage près de 90 producteurs chinois à ne pas vendre en dessous de 56 centimes d’euro par watt de puissance. Ce prix est un compromis entre ce qui est jugé cohérent avec le coût de production chinois et le prix moyen actuel sur le marché d’un côté et ce qui est acceptable par les concurrents européens de l’autre.

Au final, au cours de cette décennie (2002-2012), l’industrie du solaire photovoltaïque est indéniablement devenue globale et fortement concurrentielle, et ceci en dépit d’un net  interventionnisme des gouvernements. En réalité, même les gouvernements se sont fait concurrence. A présent, ils règlent leurs conflits en jouant avec les règles du commerce international. Le soutien coûteux de l’Etat aura propulsé le développement de la filière de manière inespérée : en créant un excès d’offre, le prix du panneau solaire a fortement chuté et a accéléré l’incroyable boom du solaire. Le solaire représente en 2013 plus de 2 % de l’électricité consommée dans l’Union européenne. Cette percée du solaire s’est accompagnée de nombreuses sorties du marché mais aussi d’entrées, sans qu’une concentration significative des acteurs ne se soit pour le moment produite. Le choix du retrait public en faveur de la politique commerciale est une nouvelle page de l’histoire de cette industrie dont les motivations ne relèvent plus de la politique énergétique et guère davantage de la politique industrielle. Evidemment il n’y a pas de crépuscule sans une prochaine aube. Mais l’aube de demain sera certainement faite d’un autre « solaire ». L’avenir européen de la fabrication de panneaux solaires passera par l’innovation technologique non pour en réduire le coût mais pour en augmenter les performances.




In memoriam. Ronald H. Coase (1910-2013)

par Vincent Touzé

Décédé à l’âge de 102 ans le 2 septembre 2013, l’économiste américain Ronald Coase nous laisse une œuvre exceptionnelle du fait de sa simplicité et sa pertinence.

Précurseur de la théorie de la firme, il voit dans cette ce type de structure une capacité indéniable à réduire les coûts de transaction et organiser ainsi efficacement l’activité économique en dehors des marchés (« The Nature of the firm », Economica, 1937). Le dilemme de la firme est le suivant : faire (c.à.d. produire soi-même) ou faire faire (recourir au marché). En l’absence de coûts de transaction sur les marchés, il n’y aurait pas de firme mais seulement des petites unités autonomes de production. Les coûts de transaction résultent de l’ensemble des dépenses associées à l’acquisition ou à la vente d’un produit : rémunération d’intermédiaires, acquisition d’information, recherche du meilleur prix, etc. Ainsi, lorsque ces coûts sont trop élevés, il est opportun de produire soi-même le bien ou le service. Toutefois, les firmes font également face à des coûts pour s’organiser. La théorie des organisations est née.

Défenseur de la libre concurrence, il attribue aux défaillances des marchés une mauvaise définition des droits de propriété (« The Problem of social cost », 1960, Journal of Law and Economics, 3: 1-44). Il se méfie des réglementations coûteuses. Il s’oppose à Pigou (The Economics of Welfare, 1932, Macmillan and Co. Ed.) qui recommande l’intervention publique pour gérer les externalités négatives. Au contraire, il préconise une meilleure identification des droits de propriété, le rôle de l’Etat devant se limiter à être garant du respect de ces droits. Cette idée a été synthétisée sous la forme du « théorème de Coase » en 1966 par George Stigler dans son ouvrage The Theory of Price (MacMillan Ed.). En s’intéressant précisément aux interactions entre droit (définition de la propriété, fondements et conséquences des décisions de justice, etc.) et économie, Coase apparaît comme un des pères-fondateurs d’une discipline nouvelle, celle de l’analyse économique du droit.

Dans les années 1990, le protocole de Kyoto a popularisé le « théorème de Coase » en  proposant la mise en place d’un commerce de droits d’émissions pour réguler la quantité de gaz à effet de serre, les fameux « droits à polluer ». Pour contrôler les émissions de gaz à effets de serre, deux approches sont possibles : la vente de droits à polluer ou la taxation à la Pigou. La première approche consiste à attribuer des droits à émettre du gaz en quantité limitée. Pour produire, il faut détenir des droits. Ces droits s’échangent sur un marché où le prix des émissions de gaz résulte de la confrontation de l’offre à la demande. La seconde approche consiste à attribuer un prix ad hoc (taxe pigouvienne) au coût social marginal de l’externalité. Cette taxe est payée par les entreprises émettrices des gaz. Le principe des droits à polluer est souvent considéré comme plus exigeant (et donc contraignant pour les entreprises) car le prix de l’émission de gaz est endogène et la quantité totale limitée. Avec une taxe pigouvienne, c’est l’inverse. Le prix est fixe (ou faiblement endogène en cas de taxation progressive) et la quantité potentiellement illimitée.

Attaché à la simplicité de l’exposé, Coase n’hésite pas à dénoncer le recours à un formalisme mathématique trop excessif. Dans un portrait publié par l’Université de Chicago en 2012, il regrette ainsi que l’économie soit « devenue un sujet axé sur la théorie et les mathématiques ». Selon lui, « l’approche devrait être empirique. Vous étudiez le système comme il est, comprenez pourquoi il fonctionne de cette façon et considérez quels changements pourraient faire en sorte de l’améliorer ». Modeste, il confie : « Je n’ai jamais fait quelque chose qui n’était pas évident, et je ne sais pas pourquoi d’autres personnes ne le font pas » et aussi « Je n’ai jamais pensé que les choses que j’ai faites étaient si extraordinaires ».

Son œuvre a été couronnée par un prix Nobel en 1991.




Retraites 2013 : une (petite) réforme…

par Henri Sterdyniak

Les mesures annoncées par le gouvernement le 27 août ne constituent pas une grande réforme  des retraites. Comme le montre la Note de l’OFCE (n°31 du 4 septembre 2013), ce sont essentiellement des mesures de financement d’ampleur limitée. Les retraités sont plus frappés que les actifs. Les entreprises ont obtenu la promesse de ne pas être mises à contribution.  L’équilibre financier n’est pas vraiment assuré, étant conditionné à une forte reprise économique (à horizon 2020), à une croissance soutenue et à une nette baisse du niveau relatif des retraites d’ici 2040. Les mesures de justice en faveur des femmes et des travailleurs soumis à des travaux pénibles  sont annoncées, mais leur mise en place est reportée ; elles ne sont pas encore à la hauteur des enjeux. Le pire est certes évité (la désindexation des retraites, un recul rapide de l’âge ouvrant le droit à la retraite, une réforme dite structurelle) ; la pérennité du système est proclamée, mais la (petite) réforme de 2013 ne se donne guère les moyens d’assurer sa fiabilité économique et sociale.




Trop de finance tue-t-il la croissance ?

par Jérôme Creel, Paul Hubert et Fabien Labondance

Existe-t-il un niveau optimal de financiarisation de l’économie ? Un document de travail du FMI écrit par Arcand, Berkes et Panizza (2012) s’intéresse à cette question et tente d’évaluer empiriquement ce niveau. Il met en avant les effets négatifs engendrés par une financiarisation trop approfondie.

La financiarisation renvoie à la place prise par les services financiers dans une économie et par conséquent au niveau d’endettement des agents économiques. Traditionnellement, l’indicateur du niveau de financiarisation se mesure en calculant le ratio entre les crédits au secteur privé et le PIB. Jusqu’au début des années 2000, cet indicateur ne prenait en compte que les crédits octroyés par les banques de dépôt, mais le développement du shadow banking (Bakk-Simon et al., 2012) incite dorénavant à prendre également en compte les prêts accordés par l’ensemble des institutions financières. Cet indicateur nous permet d’appréhender l’intermédiation financière (Beck et al., 1999)[1]. Le graphique ci-dessous présente l’évolution de la financiarisation dans la zone euro, en France et aux Etats-Unis depuis les années 1960. Cette dernière a plus que doublé dans les trois économies. Avant le déclenchement de la crise des subprime à l’été 2007, les crédits accordés au secteur privé dépassaient 100% du PIB dans la zone euro et 200% aux Etats-Unis.

Graphe-Blog-28-08

Arcand, Berkes et Panizza (2012) se demandent dans quelle mesure la place de plus en plus prépondérante prise par la finance a un impact sur la croissance économique. Pour comprendre l’intérêt de ce papier, il est utile de rappeler les divergences existantes dans les conclusions de la littérature empirique. Une partie, la plus prolixe, mettait en évidence jusqu’à récemment une causalité positive entre développement financier et croissance économique (Rajan et Zingales, 1998, ou Levine, 2005) : le secteur financier est un lubrifiant de l’économie qui permet une meilleure allocation des ressources et l’émergence de firmes innovantes. Ces enseignements tirés de modèles de croissance (endogène notamment) sont confirmés par des comparaisons internationales incluant des pays en développement dotés de petits secteurs financiers.

Certains auteurs, plus sceptiques, estiment que le lien finance-croissance économique est surestimé (Rodrik et Subramanian, 2009). De Gregorio et Guidotti (1995) mettent notamment en avant que ce lien est ténu, voire inexistant, dans les pays développés et suggèrent qu’à partir d’une certaine richesse économique, le secteur financier ne contribue plus que marginalement à améliorer l’efficacité des investissements. Il abandonne son rôle de facilitateur de la croissance économique pour se concentrer sur sa propre croissance (Beck, 2012). Cela génère de grands groupes bancaires et financiers de type « too big to fail » permettant à ces entités de prendre des risques exagérés tout en se sachant couverts par les autorités publiques. Leur fragilité se transmet rapidement à l’ensemble des autres groupes et à l’économie dans son ensemble. La crise des subprime a bien montré la puissance et l’ampleur de ces effets de corrélation et de contagion.

Pour tenter de réconcilier ces deux courants, plusieurs travaux supposent une relation non linéaire entre financiarisation et croissance économique. C’est le cas de l’étude d’Arcand, Berkes et Panizza (2012). Ils expliquent, dans le cadre d’une méthodologie en panel dynamique, la croissance du PIB par tête par l’intermédiaire des variables usuelles de la théorie de la croissance endogène (à savoir le PIB par tête initial, l’accumulation du capital humain à travers la moyenne des années d’enseignement, les dépenses publiques, l’ouverture commerciale et l’inflation) et ajoutent à leur modèle les crédits au secteur privé et cette même variable élevée au carré, afin de tenir compte d’une potentielle non-linéarité. Ils parviennent ainsi à montrer que :

  1. la relation entre la croissance économique et les crédits au secteur privé est positive ;
  2. la relation entre la croissance économique et les crédits au secteur privé élevés au carré (c’est-à-dire l’effet des crédits au secteur privé lorsqu’ils sont à un niveau élevé) est négative ;
  3. pris ensemble, ces deux éléments indiquent une relation concave – une courbe en cloche –  entre la croissance économique et les crédits au secteur privé.

La relation entre croissance et finance est donc positive jusqu’à un certain niveau de financiarisation, et au-delà de ce seuil, les effets de la financiarisation commencent progressivement à devenir négatifs. Suivant les différentes spécifications estimées par Arcand, Berkes et Panizza (2012), ce seuil (en part de PIB) est compris entre 80% et 100% de crédits accordés au secteur privé[2].

Alors que le niveau de financiarisation des économies développées se situe au-dessus de ces seuils, ces conclusions incitent à contrôler le développement de la financiarisation et l’efficacité marginale que celui-ci peut avoir sur l’économie. De plus, l’argument des lobbys bancaires, selon lequel réguler la taille et la croissance du secteur financier aurait un impact négatif sur la croissance des économies concernées, n’est pas corroboré par les données dans le cas des pays développés.

 


[1] S’il peut sembler succint, car ne rendant pas compte de la désintermédiation, l’utilisation de cet indicateur se justifie par sa disponibilité au niveau international qui permet des comparaisons. Par ailleurs, les enseignements qu’il nous apporte seraient certainement amplifiés avec un indicateur protéiforme de la financiarisation.

[2] Cecchetti et Kharroubi (2012) précisent que ces seuils ne doivent pas être perçus comme des cibles mais davantage comme des « extrema » à n’atteindre qu’en période de crise. En période « normale », il conviendrait dès lors que les niveaux d’endettement soient plus faibles afin de laisser une certaine marge de manœuvre aux économies en cas de crise.




Le Livret A noyé sous les critiques

par Pierre Madec

Alors que le gouverneur de la Banque de France et le ministre de l’Economie et des finances annonçaient une nouvelle baisse (probable) du taux du Livret A pour le 1er août prochain, l’agence de notation Standard&Poor’s (S&P) publiait de son côté une étude sur le système bancaire français. L’agence américaine y affirmait que le Livret A, et plus généralement l’épargne réglementée, « pénalise les banques » françaises et est à l’origine d’une « distorsion du marché bancaire». Ce débat, ancien, a fait l’objet de nombreux rapports : Duquesne, 2012 ; Camdessus, 2007 ; ou encore Noyer-Nasse, 2003, … . Certains défendent ardemment cette spécificité française que constitue le Livret A, tandis que d’autres prônent, au contraire, une réforme profonde d’un système qualifié de « perdant-perdant ».

Qu’en est-il ? Le Livret A met-il réellement en péril l’activité bancaire française ? Quelle utilisation est faite de l’épargne des ménages qui y est déposée ? Quels ont été les effets des hausses successives des plafonds sur les montants collectés ? Quelles conséquences aura la (probable) nouvelle baisse de taux envisagée par le ministre de l’Economie et des finances, M. Pierre Moscovici, tant pour les épargnants que pour le financement du logement social ? Nous présentons ici nos éléments de réponse.

Que représente le Livret A ?

Le Livret A, vieux de presque 195 ans, est un placement réglementé donnant droit à un avantage fiscal (défiscalisation totale et exonération de prélèvements sociaux), dont le taux est fixé par l’Etat et les dépôts sont garantis[1].

En 2011, le taux d’épargne des Français atteignait 16 % en moyenne, soit 1,1 point de plus qu’en 2006. Cette augmentation du taux d’épargne s’est faite en grande partie en faveur de l’épargne réglementée, et particulièrement en faveur du Livret A, détenu par près de 63,3 millions de Français et dont l’encours a plus que doublé depuis janvier 2007 pour atteindre 230 milliards d’euros en avril 2013. Trois phénomènes successifs ont favorisé cette augmentation massive de l’encours : la crise financière, qui a redirigé une partie de l’épargne des ménages vers les placements sans risque, la généralisation de la distribution du Livret A à toutes les banques depuis le 1er Janvier 2009, au titre de la Loi de modernisation de l’économie[2]  et enfin l’augmentation de 50 % du plafond du Livret A qui a eu lieu en deux temps (en octobre 2012 puis en janvier 2013). Cet attrait croissant pour le Livret A s’explique aussi par la liquidité totale ainsi que la garantie des dépôts qu’il procure. Liquidité totale et garantie des dépôts que ne permet pas, par exemple, l’assurance vie.

A quoi sert le Livret A ?

L’une des (nombreuses) spécificités du modèle de financement du logement en France porte (entre autres) sur le non-recours des bailleurs sociaux aux marchés obligataires (Levasseur, 2011). Ainsi, les bailleurs sociaux se financent principalement (à hauteur de 73 % en 2012) auprès de la Caisse des dépôts et consignations (CDC) où est déposée une partie de l’épargne du Livret A des ménages. La CDC, au travers d’un fonds d’épargne, centralise 65% des encours du Livret A, ce qui représentait en avril dernier plus de 150 milliards d’euros (Banque de France). Les dépôts ainsi disponibles sont prioritairement utilisés pour l’octroi de prêts au logement social et à la politique de la ville[3]. Ces emprunts servent en grande partie à la construction, l’acquisition et la réhabilitation de logements locatifs sociaux par des bailleurs HLM mais peuvent aussi financer des opérations d’habitat spécifique et des missions de la politique de la ville tel que le Plan national de rénovation urbaine (PNRU). Afin de sécuriser les dépôts et assurer les ressources nécessaires au fonds d’épargne, le montant des dépôts centralisés au titre du Livret A doit toujours être supérieur ou égal à 125 % de l’encours des prêts au logement social et à la politique de la ville octroyés par la CDC.

Il est clair que l’objectif de financement de 150 000 logements sociaux par an (à comparer aux 105 000 de l’année 2012) va engendrer une augmentation sensible des besoins de financement du secteur. Ainsi, pour satisfaire cet objectif, ce sont 13,7 milliards d’euros de prêt au logement locatif social qui devront être accordés pour la seule année 2013, soit 4 milliards d’euros de plus qu’en 2012.

Enfin, les ressources du Livret A qui ne sont pas centralisées par la CDC (80 milliards d’euros) font l’objet d’une « obligation d’emploi ». Elles doivent être employées par les établissements bancaires « au financement des PME » à hauteur de 80 % ainsi  « qu’au financement des travaux d’économie d’énergie dans les bâtiments anciens » à hauteur de 10 % [4]. De même, un certain nombre de programmes d’investissement des collectivités locales (plan Campus, plan Hôpital 2012, Grenelle de l’environnement) ont bénéficié des encours du Livret A.

Le Livret A met-il en danger le système bancaire français ?

Compte tenu de l’attrait croissant des ménages pour l’épargne réglementée (et notamment celle du Livret A), on pourrait penser (à l’instar de S&P) que ce type de placement met en danger le système bancaire en appauvrissant les liquidités bancaires déjà mises à mal par la crise. Les relèvements de plafond opérés ces derniers mois ont en effet conduit – pour l’essentiel – à un transfert de l’épargne vers les placements défiscalisés dont la part dans l’épargne financière totale des ménages a augmenté de 0,6 point entre 2011 et 2012. On a ainsi pu observer en octobre 2012 une chute importante de l’encours des livrets soumis à l’impôt (-12 milliards d’euros), chute s’expliquant en partie par la hausse des encours sur le Livret A (+6 milliards d’euros)[5] (voir graphique 1).

graph1_1107PMblog

 

Pour autant, il est important de relativiser les déclarations alarmistes de S&P. D’une part, parce qu’excepté ce mois d’octobre 2012, les flux sur les livrets fiscalisés sont relativement stables. D’autre part, parce que l’épargne réglementée, bien qu’en nette progression, ne représentait en 2012 que 9,5 % (dont 6,2% pour le Livret A) de l’épargne financière totale des ménages qui s’élevait à 3 664 milliards d’euros. De plus, en cas de manque réel et durable de liquidité, des ajustements techniques existent ou peuvent être mis en place. Selon le dernier rapport annuel de la Cour des comptes, le ratio de couverture du fonds d’épargne atteignait au début de l’année 156 % des encours des prêts au logement social et à la politique de la ville au lieu des 125 % réglementaires. Cette sur-couverture représente quelques 50 milliards d’euros qui ne sont affectés ni au financement du logement social ni à la liquidité bancaire. Aujourd’hui réclamés par les banques, ces fonds se doivent d’être rapidement orientés. Le fonds d’épargne disposant de liquidités importantes, tout en laissant inchangé les taux de couverture et de centralisation (fruits d’âpres négociations), on peut imaginer qu’un certain nombre de mécanismes temporaires de transfert entre le fonds d’épargne et le secteur bancaire peuvent annihiler tout risque de crise de liquidité. Enfin, on peut noter que les banques ont aussi bénéficié de la généralisation de la distribution du Livret A, notamment au travers du versement, par le fonds d’épargne, d’un commissionnement sur les sommes centralisées. Ce commissionnement, qui ponctionne directement le financement des logements sociaux, a grevé le fonds d’épargne d’1 milliard d’euros en 2012. Sans conclure sur la suite à donner à ces contreparties, on peut s’interroger sur la mise en place d’un meilleur arbitrage entre taux de centralisation et de couverture, taux de commissionnement et financement pérenne du logement social[6].

Quid de la baisse « probable » des taux ?

Avancée le 23 juin dernier par le ministre de l’Economie, M. Pierre Moscovici, reprenant les déclarations faites quelques jours auparavant par le gouverneur de la Banque de France, M. Christian Noyer, l’idée d’une baisse du taux du Livret A devrait entrer en vigueur le 1er août prochain et découlerait de la baisse du taux d’inflation sur lequel ce dernier est en partie indexé. Quels effets cette baisse de taux peut-elle avoir sur les flux d’épargne déposés sur les Livrets A et donc sur le financement du logement social ?

En mai 2013, le taux d’intérêt du Livret A s’établissait, en termes réels, à 0,5 %, soit un niveau relativement bas. Sur la période 2011-2012, ce dernier était même nul en moyenne (voir graphique 2). Pour autant, les flux d’encours sont restés stables sur la période. Ceci s’explique en partie par les faibles taux proposés par les autres placements,  notamment les livrets fiscalisés de type Compte épargne logement(CEL) dont les taux réels nets sont négatifs depuis fin 2009. Compte tenu des arbitrages effectués par les ménages, notamment les plus aisés, en vue d’atteindre le meilleur rendement de leur épargne, il est assez complexe de mettre en évidence une corrélation stricto sensu entre le taux du Livret A (réel ou nominal) et les évolutions de l’encours. Ainsi, au second semestre 2009, le Livret A a subi une décollecte alors même que son taux réel était élevé ; en 2010 et 2011, en revanche, la collecte a été forte alors que ce n’était plus le cas.

Compte tenu, d’une part, des faibles taux réels nets que proposent les placements comparables et, d’autre part, des incertitudes sociales et économiques actuelles, on peut espérer une certaine stabilité des flux au second semestre 2013 et ce malgré la baisse du taux rémunérateur. Cette stabilité dépendra bien évidemment de l’importance de la baisse. Le taux étant actuellement de 1,75  %, il paraît peu probable de maintenir des flux élevés si le taux était révisé en deçà des 1,25 %. La Commission économique de la nation prévoyant une inflation de 1,2 % pour 2013, toute fixation du taux du Livret A inférieure à ce taux se traduirait par une baisse du pouvoir d’achat des ménages, baisse allant à l’encontre des engagements gouvernementaux.

graph2_1107PMblog

Rappelons tout de même que cette réévaluation du taux n’est pas automatique et reste dépendante des décisions politiques. Dans la seconde moitié de 2009, alors que l’effondrement de l’inflation aurait justifié un recul de 1,5 point pour ramener le taux à 0,25 %, la baisse de taux finalement appliquée n’a été que de 0,5 point, pour s’établir à 1,25 %. C’est ainsi que 2 milliards d’euros supplémentaires ont été redistribués aux ménages. Inversement, en février 2012, au vu du regain d’inflation (même temporaire), le taux aurait dû être revalorisé à 2,75 %. Le manque à gagner engendré pour les ménages de cette non-réévaluation du taux est estimée à 1 milliard d’euros.

A l’image du choix des ménages entre sécurité, liquidité et rendement, l’arbitrage public entre pouvoir d’achat des ménages et conditions d’emprunt des bailleurs sociaux peut s’avérer compliqué. Ainsi, alors qu’une sous-évaluation du taux avantage sensiblement les bénéficiaires de l’affectation des fonds issus du Livret A (essentiellement les bailleurs sociaux) dont les intérêts d’emprunt sont « indexés » sur le taux du livret A, elle devient pénalisante pour l’épargnant.

Bien que les « petits » épargnants soient peu sensibles aux variations des taux, les « gros » épargnants, c’est-à-dire ceux approchant le plafond des dépôts, peuvent rapidement arbitrer en défaveur du Livret A. Or, ces 10 % de déposants les mieux lotis représentent 51 % des dépôts du Livret A. Une réduction massive des taux pourrait donc entraîner une décollecte importante et, par la suite, réduire significativement les capacités de prêts de la CDC au secteur du logement social, secteur aux objectifs de construction ambitieux et aux besoins de financement croissants. A contrario, il paraît clair que le maintien, en période de faible inflation, de taux élevés entraînerait un renchérissement des crédits accordés aux bailleurs sociaux, au moment même où l’Etat et les organismes HLM viennent de s’engager à la construction de 120 000 logements sociaux par an entre 2013 et 2015.

 


[1] Pour plus de précision sur le mode de détermination du taux  d’intérêt, voir Péléraux (2012).

[2] En janvier 2009, l’encours a subi une augmentation historique de 12,5 %. A titre de comparaison, les hausses successives du plafond d’octobre et janvier dernier n’ont engendré que des hausses respectives de 3,1 et 3,5 %.

[3] En 2012,  pour le seul financement de 105 000 logements sociaux, ce sont 9,7 milliards d’euros de prêt qui ont été octroyés par le fonds d’épargne.

[4] A titre d’exemple, Oséo et le fonds stratégique d’investissement (FSI) ont reçu respectivement, en 2012, 5,2 et 0,5 milliards d’euros de ressources issues du Livret A.

[5] Le transfert s’est principalement opéré en faveur du Livret de développement durable (LDD) dont l’encours a progressé de près de 14 milliards d’euros en octobre 2012 à la suite du doublement de son plafond.

[6] Alors que le taux de commissionnement doit converger d’ici 2022 vers 0,50 % pour l’ensemble des établissements distributeurs, il s’élevait en 2011 à 0,37 % pour les nouveaux distributeurs et à 0,53 % pour les distributeurs historiques (CDC, 2012).




Comment peut-on défendre les 1% ?

par Guillaume Allègre

Dans un article à paraître dans le Journal of Economic Perspectives, Greg Mankiw, professeur à l’Université Harvard et auteur reconnu de manuels universitaires, défend les revenus perçus par les 1 % les plus aisés et critique l’idée d’une imposition des hauts revenus à un taux marginal de 75 %. Pour Mankiw, il est juste que les individus soient rémunérés en proportion de leur contribution. En concurrence pure et parfaire, les individus sont rémunérés selon leur productivité marginale, il n’est donc ni nécessaire ni souhaitable pour un gouvernement de modifier la répartition des revenus. Le gouvernement doit se limiter à corriger les distorsions de marché (externalités, recherche de rente).

Dans la dernière Note de l’OFCE (n° 28, 5 juillet 2013) nous démontrons que l’économie dans laquelle vivent ces « 1 % » s’éloigne de l’équilibre concurrentiel classique par de nombreuses façons non discutées par Mankiw, ce qui nous semble être une limite importante de son argumentation. C’est parce que les « 1 % » n’opèrent pas dans une économie concurrentielle pure et parfaite qu’ils peuvent recevoir des rémunérations astronomiques. Les rémunérations perçues sur le marché par les « 1 % » ne correspondent donc pas à leur contribution sociale marginale. Cela ne signifie pas que leur contribution sociale est nulle mais que le marché est incapable de mesurer cette contribution. Les rémunérations astronomiques ne peuvent donc pas être défendues sur la base du « mérite mesuré par la contribution marginale » proposé par Mankiw.

_____________

Voir dans le blog de l’OFCE  sur le même sujet : “Superstars et équité : Let the sky fall” et “Pigeons : comment imposer le revenu des entrepreneurs ?