Mesurer le bien-être et la soutenabilité : un numéro de la Revue de l’OFCE

par Eloi Laurent

Ce numéro de la Revue de l’OFCE (n° 145, février 2016) présente certains des meilleurs travaux qui se développent à grande vitesse autour des indicateurs de bien-être et de soutenabilité.

Pourquoi vouloir mesurer le bien-être ? Parce que l’idée que la croissance économique représente le développement humain au sens où elle constituerait un bon condensé de toutes ses dimensions est tout simplement fausse. La croissance du PIB n’est pas une condition préalable du développement humain, c’est au contraire, désormais, souvent son entrave (comme l’illustre le coût sanitaire exorbitant de la pollution atmosphérique en Inde et en Chine, deux pays qui concentrent un tiers de la population humaine). Dès lors, l’augmenter ne suffit pas à se développer humainement, il y faut des politiques spécifiques qui se donnent pour objet direct l’éducation, la santé, les conditions environnementales ou encore la qualité démocratique. Sans la considération de cette pluralité du bien-être, une dimension, généralement la dimension économique, s’impose aux autres et les écrase, mutilant le développement humain des individus et des groupes (l’exemple de la santé aux Etats-Unis est particulièrement frappant à cet égard).

Pourquoi vouloir mesurer la soutenabilité ? Parce qu’un taux de croissance mondiale de 5 % aujourd’hui nous importe peu si le climat, les écosystèmes, l’eau et l’air qui sous-tendent notre bien-être se sont irrévocablement dégradés en deux ou trois décennies du fait des moyens déployés pour atteindre cette croissance. Ou pour le dire avec les mots du ministre de l’Environnement chinois, Zhou Shengxian, en 2011 : « si notre terre est ravagée et que notre santé est anéantie, quel bienfait nous procure notre développement ? ». Il faut donc actualiser notre bien-être pour que celui-ci ne soit pas qu’un mirage. Nos systèmes économiques et politiques n’existent que parce qu’ils sont sous-tendus par les ressources d’un ensemble qui les contient, la biosphère, dont la vitalité est la condition de leur perpétuation. Pour le dire brutalement, si les crises écologiques ne sont pas mesurées et maîtrisées, elles finiront par balayer le bien-être humain.

Les indicateurs de bien-être et de soutenabilité doivent donc entrer dans un nouvel âge, performatif : après avoir mesuré pour comprendre, il nous faut à présent mesurer pour changer. Évaluer pour évoluer. Car le changement qu’appellent ces nouvelles visions du monde économique est considérable. Ce temps de l’action implique toujours des choix et des arbitrages qui n’ont rien de simple. C’est précisément le double objet de ce numéro de la Revue de l’OFCE : montrer que les indicateurs de bien-être et de soutenabilité sont parvenus à maturité et qu’ils peuvent désormais non seulement changer notre vision du monde économique mais notre monde économique lui-même ; donner à voir les types de choix qui se présentent aux décideurs privés et publics pour mener à bien ce changement. Les deux parties qui composent ce numéro mettent à cet égard clairement en lumière la question de l’échelle pertinente de la mesure du bien-être et de la soutenabilité.

La première partie de ce numéro est consacrée au sujet relativement nouveau de la mesure du bien-être territorial en France. Mesurer le bien-être là où il est vécu suppose en effet de descendre vers l’échelle locale la plus fine : la nécessité de mesurer et d’améliorer le bien-être humain au plus près des réalités vécues par les personnes, de même que l’ampleur des inégalités spatiales dans la France contemporaine impose la perspective territoriale. Il existe au moins deux raisons fortes qui font des territoires (régions, métropoles, départements, villes), plus que les États-nations, les vecteurs par excellence de la transition du bien-être et de la soutenabilité. La première tient à leur montée en puissance sous le double effet de la mondialisation et de l’urbanisation. La seconde tient à leur capacité d’innovation sociale. On parle à ce sujet, à la suite de la regrettée Elinor Ostrom, de « transition polycentrique » pour signifier que chaque échelon de gouvernement peut s’emparer de la transition du bien-être et de la soutenabilité sans attendre une impulsion venue d’en haut.

Monica Brezzi, Luiz de Mello et Éloi Laurent (« Au-delà du PIB, en-deçà du PIB : Mesurer le bien-être territorial dans l’OCDE ») donnent à voir les premiers résultats de travaux théoriques et empiriques conduits actuellement dans le cadre de l’OCDE (accessibles de manière interactive sur le site http://www.oecdregionalwellbeing.org/ ) pour mesurer certaines dimensions du bien-être au niveau régional et appliquer ces nouveaux indicateurs au cas français afin d’en tirer d’utiles enseignements pour les politiques publiques.

Robert Reynard (« La qualité de vie dans les territoires français ») propose un panorama des résultats obtenus récemment par l’Insee à l’aide d’indicateurs territoriaux de qualité de vie qui permettent de constituer une nouvelle typologie des espaces français mettant en évidence huit grands types de territoires, qui se distinguent à la fois par les conditions de vie de leurs habitants (emploi, revenus, santé, éducation, etc.) et par les aménités que les territoires offrent à leur population (cadre de vie, accès aux services, transports, etc.). La nouvelle représentation de la France qui en résulte constitue une aide précieuse à la décision pour ceux qui ont en charge les politiques visant l’égalité des territoires.

Kim Antunez, Louise Haran et Vivien Roussez (« Diagnostics de qualité de vie : Prendre en compte les préférences des populations ») reviennent sur l’approche développée dans le cadre de l’Observatoire des territoires et mettent en lumière les indicateurs, proposés à des échelles géographiques adaptées, qui permettent de rendre compte du caractère multidimensionnel de la qualité de vie en France. Ici aussi, des typologies de territoires explorent le lien entre les aménités variées des cadres de vie et les aspirations diverses des populations qui y résident, pour souligner les déséquilibres existants et les leviers d’action publique mobilisables pour les réduire.

Enfin, Florence Jany-Catrice (« La mesure du bien-être territorial : travailler sur ou avec les territoires ? ») insiste sur une dimension fondamentale de ce débat sur la mesure du bien-être territorial français : la participation des citoyens à la définition de leur propre bien-être. Elle montre notamment que la portée des indicateurs retenus dépend du fait que celles et ceux qui les élaborent travaillent sur les territoires ou avec eux, c’est dans ce dernier cas seulement que le territoire et ses habitants deviennent de véritables acteurs dans l’élaboration d’une vision partagée.

Mais mesurer la soutenabilité suppose, à l’inverse de ces approches localisées, de remonter l’échelle géographique vers le national et même le niveau global. C’est l’objet des articles de la seconde partie de ce numéro qui porte sur un sujet dont l’importance a été encore soulignée par la récente loi sur la transition énergétique : l’économie circulaire. Il y a ici une différence cruciale à opérer entre une économie apparemment circulaire, qui concernerait un produit ou une  entreprise et la véritable circularité économique, qui ne peut s’apprécier qu’en élargissant la boucle pour parvenir à une vision systémique.

C’est ce qu’entendent démontrer Christian Arnsperger et Dominique Bourg (« Vers une économie authentiquement circulaire : réflexions sur les fondements d’un indicateur de circularité ») en s’interrogeant sur les principaux aspects, enjeux et questionnements que les concepteurs d’un indicateur d’économie authentiquement circulaire, s’il devait un jour être bâti au plan formel et technique, devraient prendre en compte. Ils concluent notamment que sans une vision systémique orientée vers la réduction, le rationnement et la stationnarité propres à l’approche perma-culturelle, l’idée d’économie circulaire restera constamment vulnérable à une récupération peut-être bien intentionnée, mais finalement de mauvais aloi.

Vincent Aurez et Laurent Georgeault (« Les indicateurs de l’économie circulaire en Chine ») s’efforcent justement d’évaluer la pertinence et la portée réelle des outils d’évaluation développés ces dernières années par la Chine pour donner corps à une politique intégrée d’économie circulaire ayant pour objectif d’assurer la transition vers un modèle sobre en ressources et bas carbone. Ces instruments, à bien des égards uniques mais encore insuffisants, se distinguent par leur caractère systémique et multidimensionnel et constituent dès lors un apport original au champ des indicateurs de soutenabilité.

Finalement, Stephan Kampelmann (« Mesurer l’économie circulaire à l’échelle territoriale : une analyse systémique de la gestion des matières organiques à Bruxelles »), mobilisant la théorie des systèmes socio-écologiques, se livre à un exercice particulièrement novateur consistant à comparer, selon une batterie d’indicateurs d’impact économiques, sociaux et environnementaux, deux trajectoires possibles pour la gestion municipale des flux de matières organiques à Bruxelles : un traitement centralisé par biométhanisation et un traitement par compostage décentralisé.

Ainsi donc, si le bien-être se mesure le mieux à l’échelle locale, la soutenabilité, y compris celle des territoires, s’évalue correctement en tenant compte de l’impact ressenti au-delà des frontières locales ou nationales. Des arbitrages apparaissent alors entre ces dimensions, dont l’exploration et la possible transformation en synergies au niveau territorial et national constituent les chantiers les plus prometteurs ouverts par la transition du bien-être et de la soutenabilité.




2015 : huitième année de hausse du chômage

Département Analyse et Prévision (Équipe France)

Depuis le mois de juin 2015, le nombre de demandeurs d’emploi en fin de mois (DEFM) en catégorie A inscrits à Pôle Emploi oscille d’un mois sur l’autre entre hausse et baisse. Cette forte volatilité, qui reflète un marché du travail atone dans lequel les créations d’emplois ne sont pas suffisantes pour faire baisser durablement le chômage, est directement liée à une croissance molle de l’économie française. Ainsi, après un mois de novembre 2015 relativement favorable (-15 000 DEFM en catégorie A), le mois de décembre a vu à nouveau une hausse du nombre de chômeurs (+15 800), venant annuler la baisse du mois précédent. En outre, pour la première fois depuis le mois de mai 2015, toutes les catégories d’âge ont vu, en décembre, leur nombre de DEFM en catégorie A augmenter.

Au final, pour la huitième année consécutive, le nombre de demandeurs d’emploi inscrits en catégorie A à Pôle Emploi a augmenté en France métropolitaine. Avec le retour d’une croissance plus élevée, cette hausse est néanmoins plus faible que les années précédentes : +90 000 personnes en 2015 contre +200 000 en moyenne entre 2011 et 2014. Cette augmentation a touché massivement les demandeurs d’emploi âgés de 50 ans et plus (+69 000 en 2015), tandis que les inscrits de moins de 25 ans sont en retrait (-22 000 en 2015).

Graphe_post27-01

 

La montée en charge des réformes de retraite successives (2003, 2010), couplées à la suppression des dispenses de recherche d’emploi pour les séniors, a conduit à un allongement de la durée d’activité et à un recul de l’âge légal de départ à la retraite. Dans un contexte de faible croissance, la hausse du taux d’emploi des séniors a été insuffisante pour absorber la dynamique de population active de cette classe d’âge, avec pour conséquence une hausse du chômage des plus de 50 ans.

En revanche, la diminution du nombre de jeunes au chômage résulte de deux facteurs principaux. Premièrement les politiques de l’emploi développées depuis 2013 ciblent particulièrement les jeunes avec la mise en place des emplois d’avenir. Deuxièmement, les faibles créations d’emplois observées dans le secteur marchand se font principalement sous la forme d’emplois temporaires (CDD, intérim), type d’emploi dans lequel les jeunes sont particulièrement représentés (34,2 % des jeunes en emploi sont en CDD ou en intérim contre 8,4 % des autres catégories d’âge). Cette évolution peut être rapprochée de l’augmentation observée en catégories B et C (+170 000 en 2015 contre 97 000 en moyenne entre 2011 et 2014). Ainsi, si des reprises d’emploi ont bien eu lieu, elles n’ont pas entraîné de sorties du chômage tel que mesuré par Pôle Emploi, n’enrayant ainsi pas la hausse continue du nombre de demandeurs d’emploi de longue durée (+9,5% en an).

L’année 2015 n’aura donc pas été celle de l’inversion de la courbe du chômage. Rappelons qu’il faut un taux de croissance du PIB supérieur à 1,4% pour que les créations d’emplois permettent d’entamer une baisse du chômage, et seul un retour prolongé de la croissance au-delà de ce seuil serait à même d’enclencher une baisse durable des inscrits à Pôle emploi en catégorie A.




Faut-il aider les PME à embaucher ?

par Sarah Guillou

Dans un regain de mobilisation pour lutter contre le chômage, le gouvernement a annoncé, lundi 18 janvier 2016, de nouvelles mesures qui concernent l’apprentissage, la formation et les PME au sein d’un nouveau « plan emploi ». Concernant les PME –  les entreprises de moins de 250 salariés –, il est prévu le versement de 2 000 euros pour l’embauche d’un salarié payé entre 1 et 1,3 SMIC recruté en CDI ou en CDD de plus de 6 mois. Cette aide sera accordée pour 2 ans et sera relayée en 2018 par la transformation du Crédit Impôt compétitivité emploi (CICE) – pour le moment un crédit d’impôt de 6% de la masse salariale inférieure à 2,5 SMIC – en baisse de charges. Il s’agit ainsi de réduire à zéro les cotisations restant à la charge de l’employeur à proximité du salaire minimum. Bien que réduites à la fois par l’allègement général dit « Fillon » et par les dispositions du Pacte de responsabilité, les charges sociales patronales au niveau du SMIC s’élèvent à un peu moins de 200 euros mensuel (charges dues notamment au titre de l’assurance chômage, de la formation professionnelle, …). Cette disposition devrait donc assurer l’application du « zéro charge » pour les PME.

Cependant, l’aide à l’embauche aux PME risque fort de ne pas être interprétée comme un dispositif qui modifie l’environnement futur du coût du travail et se trouvera donc peu en phase avec la nature des freins à l’embauche (incertitude sur le futur) que ces entreprises rencontrent. En effet, présenter le caractère pérenne de l’aide à l’embauche aux PME en argumentant sur la transformation du CICE en baisse des charges à l’horizon de 2018 est une pirouette politique. Ou alors cela laisse entendre que le CICE sera requalifié en termes de cibles de salaires et de taille d’entreprises comme le montrent les éléments suivants, ce qui serait également un autre élément d’incertitude.

Les PME ne sont pas des grandes !

Selon le rapport de l’INSEE sur les entreprises en 2015, on recense 3,5 millions de PME (non financières et non agricoles) sur un total de 3,56 millions d’entreprises. Ce sont en grande majorité des microentreprises, c’est-à-dire des entreprises de moins de 10 salariés, voire sans salarié. On ne compte en effet que 138 000 PME non microentreprises, soit 4% des PME mais celles-ci emploient 28 % des salariés.

Plus généralement, les PME  sont toutes les entreprises françaises qui ne sont pas des grandes, ce qui représente plus de 95% des entreprises. Le plan est donc très général, il n’exclut en fait que quelques grandes entreprises mais aussi toutes les microentreprises qui n’ont pas de salariés. Avant la loi de modernisation de l’économie (LME), on trouvait parmi ces PME des entreprises qui, de fait, appartenaient à un groupe et dont le périmètre d’activité et de pouvoir économique et financier dépassait celui des PME indépendantes. A présent, la nouvelle définition retenue par l’INSEE exclut, en principe, une entreprise de la catégorie des PME, si elle appartient à un groupe.

En termes de nombre, la répartition des PME par secteur marchand (hors activités agricoles) est donnée dans le tableau 1. Les PME françaises de plus de 9 salariés se concentrent – en ordre décroissant – dans le commerce, la construction, le secteur hébergement et restauration, le secteur des activités scientifiques et techniques (dont les professions libérales) et le secteur manufacturier. La cible des PME est donc très large mais entraîne cependant un coût budgétaire moindre que si la mesure était généralisée à toutes les tailles d’entreprises.

Les aides aux PME

De nombreux dispositifs existent. Certains sont liés à l’âge des entreprises – comme celui des jeunes entreprises innovantes ou les exonérations de charges sociales associées aux premières années d’existence d’une entreprise – car naturellement les plus jeunes entreprises sont d’abord des PME. De nombreuses aides existent également au niveau local.

Ce soutien de l’Etat aux PME est compatible avec la réglementation européenne concernant les aides publiques puisqu’il s’agit d’un domaine qui bénéficie du régime d’exemption d’obligation déclarative des aides à la Commission européenne. Ce qui signifie que si les aides publiques aux entreprises sont, en régime général, prohibées par les traités européens, les aides aux PME bénéficient d’un régime d’exemption. Comparativement, la France est bien devant l’Allemagne en matière de soutien aux PME en pourcentage du total des aides publiques dites « horizontales » (non sectorielles). Les statistiques des aides publiques aux entreprises reportées par la Commission européenne montrent que, pour un montant total d’aides comparables entre la France (9,726 milliards d’euros) et l’Allemagne (9,395 milliards d’euros) en 2013, les aides aux PME représentent 12% en France et 3% en Allemagne (EU Scoreboard). Si on retient les statistiques européennes comme une bonne mesure de l’échelle des aides aux entreprises, on conclura que plus d’un dixième des aides horizontales françaises concernent des dispositifs d’aides aux PME.

Quelles sont les caractéristiques salariales particulières des PME ?

Dans les microentreprises, 61% des salariés ont des salaires inférieurs ou égaux à 1,3 SMIC, c’est 48% dans les PME de plus de 9 salariés et 42% dans les grandes entreprises.

Comme le montre le graphe ci-dessous, qui présente la distribution des salaires pour chaque taille d’entreprise, plus la taille des entreprises est grande et plus la distribution des salaires s’écarte du salaire minimum. Les entreprises de plus de 250 salariés ont donc une proportion de salariés au SMIC bien plus faible. On observe également que le gros des salariés des entreprises de plus de 250 salariés se situe autour de 1,3 SMIC, ce qui montre que cette limite inférieure exclut de fait de nombreux salariés des entreprises de taille intermédiaire (entre 250 et 4 999 salariés) et des grandes entreprises.

Mais il ne faut pas en conclure que les inclure dans le dispositif n’aurait pas modifié fondamentalement la dépense budgétaire. Car sur le total des salariés dont les salaires sont inférieurs à 1,3 SMIC (ceux ciblés), 50% se trouvent dans les grandes entreprises. Cela tient à la distribution inégale du poids économique selon la taille des entreprises. Les grandes entreprises sont bien moins nombreuses mais elles rassemblent 56% des salariés tous niveaux de salaires confondus.  De leur côté, les PME concentrent 50% des salariés ciblés dont 13% dans les microentreprises.

 

G1_Post2501SG

Par ailleurs, les données par secteur du tableau 1 montre que c’est effectivement là où se concentrent les PME que l’on trouve un fort pourcentage de salariés payés en-dessous de 1,3 SMIC (à l’exception des services scientifiques et techniques) et que le salaire horaire moyen est le plus faible. Sur l’ensemble de l’économie marchande, les salariés payés en dessous de 1,3 SMIC représentent 46% des salariés, dont environ 13% sont payés au SMIC.

 

tab1_R2501_post

La répartition sectorielle de la capture du CICE montre que les secteurs qui en bénéficient le plus ne sont pas forcément ceux les plus à même d’utiliser (étant donné la structure antérieure de leur emploi) la prime à l’embauche. Cela tient au fait que le CICE concerne les salaires au-delà de 1,3 SMIC et jusqu’à 2,5 et concerne toutes les entreprises. Les deux « aides » vont de toute façon se cumuler pour une année jusqu’en 2018. Il est évident que les deux dispositifs ne sont ni complémentaires et ni substituables. Autrement dit, présenter le caractère pérenne de l’aide à l’embauche aux PME en argumentant sur la transformation du CICE en baisse des charges à l’horizon de 2018 est une pirouette politique. Ou bien cela laisse entendre que le CICE sera requalifié en termes de cible de salaires et de taille d’entreprises.

L’aide à l’embauche aux PME risque fort de ne pas être interprétée comme un dispositif qui dessine l’environnement futur du coût du travail et se trouve donc peu en phase avec la nature des freins à l’embauche qu’elles rencontrent. Ces freins sont fortement associés à l’incertitude sur leurs carnets de commandes futurs. Alors que les entreprises réclament l’assouplissement des règles contractuelles afin de concilier cette incertitude et l’ajustement à leur besoin conjoncturel, une prime dont la pérennité n’est absolument pas assurée ne répond pas à cette demande. Une suppression complète des charges sociales qui pèsent encore sur le SMIC aurait été interprétée comme une mesure plus pérenne et satisfaisant à la gestion de l’incertitude qui paralyse la création d’emploi. Cette suppression, compensant les effets négatifs du SMIC sur l’emploi des moins qualifiés, aurait pu restaurer la compétitivité-coût au niveau des bas salaires vis-à-vis de l’Allemagne dont le salaire minimum a été mis en place depuis 2015.

Il y a une forte probabilité que cette obole ne soit en fait qu’une belle aubaine, autrement dit que le soutien à l’embauche ne soit saisi que par les entreprises sur le point d’embaucher.




L’équilibre de stagnation séculaire

par Gilles Le Garrec et Vincent Touzé

Le régime économique de croissance faible et de sous-emploi, associé à une inflation faible, voire une déflation, a récemment été largement débattu, notamment par Larry Summers, sous l’étiquette de « stagnation séculaire ». L’hypothèse d’une stagnation séculaire a été exprimée pour la première fois en 1938 dans un discours prononcé par A. Hansen finalement publié en 1939. Hansen s’inquiétait d’un investissement insuffisant aux États-Unis et du déclin de la population après une longue période de forte expansion économique et démographique.

Dans une Note de l’OFCE (n° 57 du 26 janvier 2016), nous étudions les caractéristiques et la dynamique de l’équilibre de stagnation séculaire.

Le régime de stagnation séculaire résulterait d’une abondance d’épargne par rapport à la demande de crédit conduisant le taux d’intérêt « naturel » réel (qui est compatible avec le plein emploi) en dessous de zéro. Or, si le taux d’intérêt réel reste en permanence au-dessus du taux naturel, alors il en résulte une pénurie chronique de la demande globale et de l’investissement, avec un potentiel de croissance affaibli.

Afin de contrer la stagnation séculaire, les autorités monétaires ont, en premier lieu, réduit leurs taux directeurs, et puis, après avoir atteint la borne zéro (ou ZLB pour Zero Lower Bond en anglais), elles ont du pratiquer des politiques non-conventionnelles dites d’assouplissement quantitatif. En effet, les banques centrales ne peuvent pas forcer les taux d’intérêt à être très négatifs sinon les agents privés auraient tout intérêt à conserver leur épargne sous la forme de billets de banque. Au-delà des mesures d’assouplissement quantitatif, quelles autres politiques pourraient potentiellement aider à sortir l’économie de la stagnation séculaire?

Pour répondre à cette question cruciale, le modèle développé par Eggertsson et Mehrotra en 2014 a le grand mérite de clarifier les mécanismes de la chute dans la stagnation de long terme et contribue au renouvellement de l’analyse macroéconomique dans la compréhension de la multiplicité des équilibres et la persistance de la crise. Leur modèle s’appuie sur des comportements de consommation et d’épargne d’agents à durée de vie finie dans un contexte  de marché du crédit rationné et de rigidité nominale des salaires. Quant à la politique monétaire conduite par la banque centrale, elle consiste à fixer un taux nominal directeur à partir d’une règle de Taylor. Selon cette approche, la stagnation séculaire a été initiée par la crise économique et financière de 2008. Cette dernière est associée à un endettement fort des ménages qui a abouti en fin de compte au rationnement du crédit. Dans ce contexte, le rationnement du crédit conduit à une baisse de la demande et à un excès d’épargne. Par conséquent, le taux d’intérêt réel diminue. Partant d’une situation de plein emploi, si le resserrement du crédit est élevé, le taux d’intérêt d’équilibre devient négatif, ce qui rend la politique monétaire conventionnelle inefficace. Dans ce cas, l’économie plonge dans un régime permanent de sous-emploi de la main-d’œuvre caractérisé par un produit inférieur à son potentiel et par de la déflation.

Dans le modèle proposé par Eggertsson et Mehrotra, il n’y a pas d’accumulation de capital. Par conséquent, la dynamique sous-jacente se caractérise par des ajustements sans transition d’un équilibre stationnaire à un autre (du plein emploi vers la stagnation séculaire si crise du crédit  et vice et versa si la contrainte de crédit est desserrée).

Pour étendre l’analyse, nous avons considéré l’accumulation du capital physique comme une condition préalable à toute activité productive (Le Garrec et Touzé, 2015). Ainsi, nous mettons en évidence une asymétrie dans la dynamique de la stagnation séculaire. Si la contrainte de crédit est desserrée, alors le capital converge vers son niveau d’avant-crise. Cependant, la sortie de crise prend plus de temps que son entrée. Cette propriété suggère que les politiques économiques pour lutter contre la stagnation séculaire doivent être faites dans les plus brefs délais.

Les enseignements d’une telle approche sont multiples :

  • — Pour éviter la ZLB, il y a un besoin de création urgente d’inflation tout en évitant les « bulles » spéculatives sur les actifs, ce qui pourrait nécessiter une régulation particulière. L’existence d’un équilibre déflationniste invite donc à s’interroger sur le bien-fondé de règles de politique monétaire trop centrées sur l’inflation ;
  • — Il faut se méfier des effets déflationnistes des politiques d’accroissement de la production potentielle. Le bon policy-mix consiste à accompagner les politiques structurelles d’une politique monétaire suffisamment accommodante ;
  • — Réduire l’épargne pour faire remonter le taux d’intérêt réel (par exemple, en facilitant l’endettement) est une piste intéressante mais il ne faut pas négliger l’impact négatif sur le PIB potentiel. Il existe un arbitrage évident entre sortir de la stagnation séculaire et déprimer le potentiel. Une solution intéressante peut consister à financer des politiques d’infrastructure, d’éducation ou de R&D (hausse de de productivité) par de l’emprunt public (hausse du taux d’intérêt réel d’équilibre). En effet, une forte politique d’investissement (public ou privé) financée de façon à faire remonter le taux d’intérêt naturel permet de satisfaire le double objectif : soutenir la demande globale et développer le potentiel productif.



L’inégalité intergénérationnelle dans quatre grands pays de l’UE : un seul modèle peut-il tout expliquer ?

Francesco Vona

L’ampleur des différences de mobilité sociale entre les pays est sujet à beaucoup de débats à la fois politiques et académiques. Les pays scandinaves, relativement égalitaires d’un côté, et de l’autre les pays anglo-saxons, où les inégalités sont plus prononcées, sont souvent pris comme exemples extrêmes pour corroborer une explication fondée sur le capital humain. En fait, d’importantes différences relatives aux systèmes éducatifs (par exemple financement privé vs. public) et le rendement des compétences expliquent relativement bien les écarts de mobilité sociale entre les pays scandinaves et les pays anglo-saxons. Cependant, dans une étude récente utilisant des données individuelles par pays comparables (EU-SILC), nous montrons que l’explication par le capital humain ne suffit pas à rendre compte des différences observées pour quatre pays de l’Union européenne : Allemagne, France, Italie et Espagne[1].

Pour évaluer l’explication fondée sur le capital humain, il faut observer les rémunérations des individus qui dépendent de deux facteurs : le capital familial (qui inclut entre autre la transmission génétique de l’intelligence si elle existe et le capital social) et les talents individuels indépendants de la transmission familiale. Notre hypothèse est que ces deux forces sont complémentaires et donc que l’influence du capital familial est d’autant plus forte que les personnes sont talentueuses : elles n’ont ainsi pas de contrainte géographique et financière pour accéder aux meilleures écoles et bénéficient d’un environnement culturel plus stimulant (Cunha et Heckman, 2007). Nous testons cette hypothèse en utilisant des techniques de régressions qui permettent d’estimer des rendements du capital familial conditionnel au talent individuel (Firpo et al., 2009). Le graphique ci-dessous montre l’effet du capital familial pour chaque décile de rémunérations des enfants. Le coefficient relatif au capital familial doit être interprété comme le pourcentage d’augmentation du salaire consécutive à une augmentation d’un décile dans la position sociale relative des parents[2].

A première vue, nos résultats suggèrent une complémentarité entre l’influence de la famille et les capacités individuelles. Les rendements du capital familial sont plus élevés pour la partie haute de la distribution non seulement en Allemagne et en France, où l’influence de l’éducation est particulièrement importante du fait, respectivement, de l’orientation précoce et du système de grandes écoles, mais aussi dans les deux pays méditerranéens, où le rôle des mécanismes non méritocratiques est plus fort[3]. Toutefois, un modèle fondé sur le capital humain n’explique pas complétement la relation entre les rémunérations et le capital familial. Tout d’abord, le rendement du capital familial est nettement plus pentu en France et en Allemagne qu’en Italie et en Espagne, en cohérence avec l’idée que l’influence des parents agit à travers les réseaux sociaux et le népotisme dans les pays méditerranéens[4]. Deuxièmement, les effets du capital familial sont nettement plus importants en France que dans les trois autres pays[5]. Cet effet de l’influence familiale pour le décile supérieur est probablement dû à l’influence des parents sur la probabilité d’entrer dans les grandes écoles en France. Ainsi, la valeur élevée des rendements du capital familial dans le 7e et 8e décile indique une distribution de plus en plus polarisée selon les origines familiales.

Ce résultat suggère que la question du système scolaire français ne peut pas être réduite à une simple opposition entre école publique et école privée. Une autre explication possible tient à la forte ségrégation résidentielle et donc une remise en question radicale de la politique d’admission de l’école basée sur le quartier de résidence semble nécessaire. Des politiques ciblées favorisant le mélange d’étudiants de différentes origines socio-économiques dans la même école apparaissent ainsi nécessaires pour permettre aux enfants talentueux mais défavorisés de bénéficier de l’effet positif des pairs de meilleure origine familiale. Les expériences récentes menées aux États-Unis montrent que ces politiques sont particulièrement efficaces pour augmenter les perspectives des élèves défavorisés (voir Chetty et al. 2015).

 

G1_Post2501FV

Lecture : en France, pour les enfants dans le dernier décile de revenus, une augmentation d’un décile de la position sociale relative des parents accroît le revenu des enfants d’environ 7,5%.

[1] Voir Raitano, M., Vittori, C, Vona, F., 2015, «The effect of parental background along the sons’ earnings distribution: does one model fit for all?», OFCE Working paper, n° 18-2015, et Applied Economic Letters. Nous utilisons les renseignements fournis par l’enquête EUSILC 2011 qui comprend une section spécifique avec des informations sur les caractéristiques de la famille lorsque l’interviewé avait environ 14 ans.

[2] Nous construisons une mesure globale du capital familial combinant différentes caractéristiques de la famille (il s’agit principalement des résultats scolaires et professionnels des parents) pour obtenir une distribution relative des positions sociales parentales et pouvoir associer chaque enfant à une position sociale donnée classée de un à dix pour plus de commodité.

[3] Notons que le coefficient relatif à l’influence des parents est toujours statistiquement différent de zéro, à l’exception du premier décile de revenu en Allemagne et en Espagne.

[4] Raitano, M., Vona, F., (2015). “Measuring the link between intergenerational occupational mobility and earnings: evidence from eight European countries”, Journal of Economic Inequality, vol. 13(1), 83-102.

[5] Notons que la France affiche une moindre inégalité intergénérationnelle que l’Italie, l’Espagne et le Royaume-Uni dans la version précédente de l’enquête EU-SILC.

 




Restructurer la CSG et la Prime d’activité ? Commentaires sur la décision du Conseil constitutionnel du 29 décembre 2015

par Henri Sterdyniak

Le 29 décembre 2015, le Conseil constitutionnel a censuré l’article 77 de la Loi de finances 2015. Issu d’un amendement présenté par deux députés socialistes, Jean-Marc Ayrault, ancien Premier ministre, et Pierre-Alain Muet, cet article instaurait le versement d’une fraction de la prime d’activité (PA) sous la forme d’une réduction dégressive de la CSG.

Cette censure était souhaitée et prévue par le gouvernement et la plupart des fiscalistes.  L’amendement rendait encore plus inextricable notre système fiscalo-social.  Une prestation sociale (la prime d’activité, PA), calculée sur une base familiale, devait être versée en partie par l’entreprise sous la forme d’une réduction de la CSG (le montant de la réduction n’ayant aucun lien avec le montant de la PA due), réduction qui devait s’imputer sur la PA versée par la CAF, mais devait être récupérée sous forme de hausse de l’IR l’année suivante pour ceux qui n’auraient pas droit à la PA.  Ainsi, les députés avaient-ils voté en décembre 2015 une réforme de la PA votée en juillet, avant même que cette prime ne soit encore versée. De toute évidence, c’est au moment du vote de la PA que les modalités de versement auraient dues être pensées.

Malheureusement, le Conseil constitutionnel a censuré l’amendement sur un premier grief (la différence de traitement entre les salariés et les non-salariés) sans examiner les autres, de sorte que certains commentateurs (comme Thomas Piketty, « Retour sur la censure de l’amendement Ayrault-Muet », Libération, 31 décembre 2015) ont cru qu’il suffirait d’étendre les bénéfices de l’amendement aux non-salariés. Certains se sont indignés d’une décision qui « empêchait  les parlementaires d’améliorer les conditions de vie des travailleurs modestes ». Nous voudrions ici expliquer pourquoi l’amendement en question n’était pas bien pensé et, plus généralement, pourquoi l’aide aux familles de travailleurs pauvres ne peut pas prendre la forme d’une réduction de la CSG.

Un amendement malvenu

Le système fiscalo-social français est basé sur un principe fondamental, qui est la reconnaissance de la famille, en tant qu’unité de base. Les parents sont censés partager l’ensemble des ressources de la famille entre tous ses membres. La fiscalité comme les prestations sociales évaluent le niveau de vie de la famille en considérant sa composition et l’ensemble de ses revenus. Selon ce principe, tout impôt progressif, toute prestation à visée redistributive doit être familialisée. C’est le cas de l’IR, du RSA, des allocations logement.

Ce principe peut certes être remis en cause ; certains souhaitent que la France passe à un système individuel, qui ne reconnaîtrait pas la famille comme élément de base de la société. Mais, ce choix doit être publiquement posé et démocratiquement décidé. Il doit être pensé de façon cohérente pour les prestations comme pour les impôts comme pour le droit du divorce et de l’héritage. Il suppose, en particulier, que soit clairement établi qui supporte la charge financière des enfants. Il ne peut être introduit en contrebande, par des amendements qui affaiblissent la cohérence du système actuel sans proposer un système alternatif cohérent. Or, l’amendement Ayrault-Muet stipulait que l’imposition des revenus avait deux composantes, l’IR et la CSG, et aboutissait à ce que la progressivité de la seconde se fasse sur une base individuelle, ne tenant pas compte, de plus, des revenus du capital[1].  Aussi, certains économistes comme Piketty, Liem-Hoang-Ngoc (« La réforme fiscale manquée », Libération du 6 janvier 2016), Bargain, Lehmann et  Trannoy (« L’amendement Ayrault sur la fiscalité ne doit pas être repoussé », Le Monde, 9 décembre 2015) soutenaient l’amendement, mais comme une étape vers une réforme fiscale, dont le contenu n’a pas fait l’objet jusqu’à présent d’un débat et d’une décision démocratique. Ce n’est pas une bonne méthode.

Le système français aide fortement les travailleurs à bas-salaires et leurs familles (tableau 1). Le choix fait a été d’instaurer un salaire minimum relativement élevé en en réduisant le coût pour les employeurs par de fortes exonérations de cotisations sociales patronales. Ainsi, la valeur du travail est reconnue ; ainsi, les travailleurs dits non-qualifiés sont incités à travailler. Par ailleurs, les familles de travailleurs pauvres sont aidées par les prestations familiales, les allocations logement,  naguère par le RSA activité, maintenant par la PA.  Ainsi, un célibataire au SMIC supporte un prélèvement négatif (-45 euros) si on fait le solde entre les cotisations sociales non-contributives (maladie, famille, etc.) que verse son employeur (314 euros), sa CSG-CRDS (115 euros), ses impôts indirects (218 euros) d’un côté, sa prime d’activité (94 euros), son allocation logement (67 euros) et les exonérations de cotisations employeurs (531 euros) de l’autre. De même, le prélèvement est négatif (-81 euros) pour une famille de deux adultes payés au SMIC, ayant deux enfants à charge.

Le choix fait en juillet 2015 a été de renforcer la progressivité du système en remplaçant le RSA activité et la PPE par la Prime d’activité.  Comme l’aide aux familles pauvres doit être familialisée et tenir compte de l’ensemble de leurs revenus, elle ne peut pas figurer sur la fiche de paye puisque l’employeur ne connaît pas la situation familiale de ses salariés, leurs autres revenus et que le barème de l’aide souhaitable ne correspond pas à celui de la CSG (tableau 2). Le dispositif mis en place par la PA est beaucoup plus ciblé sur les familles les plus pauvres que ne l’eût été la dégressivité de la CSG.  Il est impossible d’aider fortement les familles les plus pauvres par la dégressivité de la CSG car elles en paient très peu. Cette dégressivité ne peut être familialisée et donc elle diminuerait le niveau de vie relatif des familles avec enfants.

tab1_HS2101_post

En contrepartie, le risque est grand que la PA souffre d’un taux de non-recours élevé, puisque c’est une prestation quérable, dont le montant découle d’un calcul compliqué, intégrant le revenu de la famille et les salaires de chacun, difficilement compréhensible par les bénéficiaires potentiels. Le taux de non-recours du RSA activité était certes de 62%, mais celui des allocations logement (une prestation quérable et compliquée) est lui de l’ordre de 10%[2].  Les conditions d’obtention de la PA sont allégées et simplifiées par rapport à celles du RSA activité, de sorte que les 50% de taux de recours prévu pourraient progressivement être augmentés. L’amendement Ayrault-Muet aurait risqué de démobiliser les CAF sur ce que doit dorénavant  être leur objectif: la hausse du taux de recours de la PA.

tab2_HS2101_post

L’amendement proposé par Ayrault et Muet souffrait de son ambiguïté. Les entreprises auraient distribué à leurs salariés un acompte à la PA qui aurait pris la forme d’une réduction dégressive de la CSG, soit 90% du montant de la CSG pour les travailleurs au SMIC, pourcentage qui aurait diminué linéairement pour s’annuler à 1,34 fois le SMIC. Les auteurs de l’amendement le défendaient, parfois en soutenant qu’il s’agissait d’un simple acompte à la PA (et donc qu’il n’était pas  gênant qu’il soit réservé aux salariés et qu’il ne tienne pas compte des charges familiales), parfois en soutenant qu’il s’agissait de rendre la CSG progressive, et donc de réduire la charge fiscale des travailleurs à bas-salaires.

Il est trompeur d’écrire comme les auteurs de l’amendement que le taux d’imposition est immédiatement de 9,7% pour le salarié qui perçoit juste le SMIC, puisque c’est ne tenir compte que de la CSG-CRDS en oubliant, dans le cas du célibataire, la PA,  les allocations logement, les cotisations employeurs et leurs exonérations et, dans le cas des familles, les prestations familiales, qui font que le taux d’imposition net est négatif à ce niveau de salaire. Il est trompeur de prétendre que grâce à l’amendement, le taux d’imposition du travailleur au SMIC passait à  1,4%, en confondant un acompte sur prestation avec une baisse d’impôt.

Le mécanisme proposé par l’amendement Ayrault-Muet ne bénéficiait pas aux familles qui reçoivent le plus de PA (tableau 2). Certes, le taux de recours aurait mécaniquement augmenté, mais pas pour les familles les plus pauvres.  La CAF pour verser la PA aux familles de salariés aurait dû connaître la ristourne de CSG dont elles avaient effectivement bénéficié, ce qui aurait encore compliqué le dispositif. L’amendement ne prévoyait pas comment ce transfert d’information se serait effectué, ni comment les pertes de CSG seraient compensées à la Sécurité sociale. Par ailleurs, des salariés auraient bénéficié de la ristourne de la CSG sans avoir droit à la PA, en raison des revenus de leur conjoint ou de revenus du capital ; cette ristourne aurait dû être récupérée par le fisc au moment du versement de l’IR. Encore une nouvelle complication puisque le fisc aurait dû vérifier pour chaque ménage ayant bénéficié de la ristourne CSG sans demander la PA s’il y avait droit.  Mélangeant la CSG, la PA et l’IR, l’amendement accentuait encore la mise en cause de l’autonomie des ressources de la Sécurité sociale. On ne peut  utiliser la CSG comme acompte d’une PA, alors que les deux obéissent à des logiques bien différentes.

Le mieux est l’ennemi du bien. Du moment où le système français comporte des transferts fortement redistributifs (comme l’IR, l’ISF, les cotisations employeurs, la PA, les AL), il n’est pas nécessaire que tous les prélèvements le soient, d’autant qu’un prélèvement progressif obligatoirement familialisé est obligatoirement difficile à gérer. Le choix fait d’aider les travailleurs pauvres par la PA plutôt que par la dégressivité de la CSG (mesure déjà censurée par le Conseil constitutionnel le 19 décembre 2000) est légitime. Il est bizarre de la remettre en cause cinq mois après son vote.

Il est trompeur d’écrire, comme Laurent Mauduit (Médiapart du 30 décembre 2015, « Le Conseil constitutionnel plombe toute réforme fiscale »), « cette disposition contribuait à rétablir un peu d’équité dans un système français très inégalitaire »  ou la décision du Conseil constitutionnel « conforte le conservatisme néo-libéral ambiant au terme duquel les riches ne doivent surtout pas payer plus d’impôt que les pauvres ». Il est erroné de prétendre que cette décision remet en cause le principe de progressivité de l’impôt ; au contraire, elle conforte la jurisprudence de la Cour : l’impôt progressif  doit être familial.

Le système mis en place est-il pour autant parfait ?  Non, sans doute et pour deux raisons, au moins. La prime d’activité aide les familles de travailleurs pauvres, mais n’est plus versée en cas de chômage, ce qui  augmente fortement la perte de revenus de ces familles en cas de  chômage. Pourquoi ne pas considérer les allocations chômage comme un revenu d’activité et ouvrir aux chômeurs le droit à la PA ?

Il eut été préférable de bien séparer l’objectif d’aide aux familles les plus pauvres (qui nécessite obligatoirement un suivi en temps réel de la composition des familles et de leurs revenus) et l’objectif d’aide à l’emploi non-qualifié (qui dispose déjà d’un instrument spécifique : le couplage SMIC/exonération des cotisations employeurs).  Augmenter le SMIC de 10%, en compensant cette hausse par des exonérations de cotisations employeurs ; créer un complément familial pour les familles à 1 ou 2 enfants sous le seuil de pauvreté aurait permis de limiter fortement le nombre de bénéficiaires potentiels de la PA et de réduire le non-recours puisque le recours aux prestations familiales est nettement plus élevé que celui prévu pour la PA.

L’objectif doit être maintenant d’augmenter le taux de recours à la PA, ce qui suppose une forte volonté politique et une mobilisation des CAF pour que le taux prévu (50 %) soit dépassé.

____________________________________________________________________________________________

Prime d’activité et réduction de la CSG

La prime d’activité est calculée pour un ménage par la formule :

 PA = (montant forfaitaire + bonifications individuelles) – (38% des revenus d’activité + autres ressources + prestations familiales + forfait logement).

Le montant forfaitaire est le montant du RSA et dépend de la composition de la famille ; le forfait logement est soustrait si la famille perçoit les allocations logement ou est propriétaire de son logement ; la bonification individuelle est versée pour les actifs dont les revenus d’activité sont d’au moins 0,5 Smic ; elle atteint 67 euros pour un actif dont les revenus d’activité dépassent 0,8 SMIC.

Soit, pour une famille de deux enfants et un actif au SMIC :

PA=1001+67-(0,38*1142+0+129+67+129)= 449 € par mois.

La CSG est actuellement de 7,5% sur les 98,75% du salaire brut. L’amendement Ayrault-Muet prévoyait une réduction de 90% pour les salariés au SMIC, soit de 6,67% du salaire brut, soit 98 €. Le taux de réduction baissait linéairement jusqu’à 1,34 SMIC.

_______________________________________________________________________________________

 

[1] Certes, la CSG est déjà quelque peu progressive pour les  retraités, pour des raisons historiques (quand la CSG a été introduite, les pouvoirs publics n’ont pas voulu diminuer le pouvoir d’achat des plus faibles retraites), mais cette progressivité est entièrement calquée sur celle de l’IR, de sorte qu’elle tient compte de l’ensemble des revenus du retraité et de sa situation familiale.

[2] Selon : CAF (2014) : L’Accès aux droits et le non-recours dans la branche Famille des Prestations familiales, Novembre.




Le rêve américain (enfin) démontré ?

par Maxime Parodi

Dans un court article sorti récemment, Thomas Hirschl et Mark Rank (2015) nous livrent quelques chiffres très étonnants sur la société américaine – chiffres qui, pris au sérieux, amèneraient à nettement relativiser les inégalités de revenus aux Etats-Unis. En effet, leur étude laisse entendre que la société américaine est beaucoup plus fluide qu’on ne le croit. Les Américains vivraient certes dans une société très inégalitaire mais, au cours de leur vie, la plupart des Américains feraient l’expérience de la richesse. Il y aurait, en réalité, un fort turn-over entre les riches et les pauvres et ceci expliquerait pourquoi les Américains se montreraient aussi peu critiques à l’égard des inégalités.

Selon cette étude, au cours de leur vie active (de 25 à 60 ans), 69,8% des Américains auraient eu, au moins une année, des revenus suffisant au sein de leur ménage pour faire partie des 20% les plus riches. 53,1% des Américains auraient fait partie – au moins une année – des 10% les plus riches. Et, plus sélect encore, 11,1% des Américains seraient entrés pour au moins une année dans le club des fameux 1% les plus riches.

Mais avant de croire à ces énormités, il faut examiner plus sérieusement l’étude de Hirschl et Rank. En effet, les chiffres qu’ils présentent ne sont pas une simple description de la société américaine, mais le résultat d’un exercice de modélisation. Derrière ces chiffres, il y a donc des hypothèses et des méthodes qui ont été mises en œuvre et qui méritent d’être discutées.

Dans la dernière Note de l’OFCE (n° 56 du 12 janvier 2015), je montre que les hypothèses utilisées sont irréalistes et que la méthode employée ne supporte pas la présence de données manquantes dans la biographie des enquêtés. L’un dans l’autre, les résultats apparaissent très fortement biaisés en faveur du rêve américain. Il est possible, toutefois, de corriger en partie ces biais. On obtient les résultats du tableau ci-dessous.

tab_1301MP

En gros, les chiffres de Hirschl et Rank sont divisés par deux ! Ainsi, 31% des Américains auront au moins une année (entre leurs 25 et 60 ans) un revenu du ménage suffisant pour faire partie des 20% les plus riches. Et 5% des Américains auront une année un revenu du ménage suffisant pour faire partie des 1% les plus riches.

Etant donné l’ampleur des corrections, il est clair que l’étude de Hirschl et Rank déforme la réalité en laissant croire que les destinées sociales aux Etats-Unis sont très chaotiques – comme si une société entière jouait à la roue de la fortune. D’autres articles de Hirschl et Rank complètent d’ailleurs ce tableau. En effet, ce n’est pas la première fois que les auteurs produisent des chiffres avec cette méthode. En 2001, ils l’avaient déjà appliqué à l’autre extrémité de la distribution des revenus. Ils ont ainsi évalué le pourcentage d’Américains qui ont connu dans leur vie un épisode de pauvreté (Hirschl et Rank, 2001). Les chiffres qu’ils exhibent sont également énormes. Par exemple, 54% des Américains auraient vécu un épisode de pauvreté[1] avant leurs 40 ans. En 2005, ils ont appliqué à nouveau cette méthode aux bénéficiaires de coupons d’alimentation (food stamps) et estimé que 50% des Américains ont eu ou auront recours à des coupons d’alimentation au moins une fois dans leur vie (avant 65 ans). L’ordre de grandeur, à nouveau, n’est guère crédible. Une méthode moins coûteuse et plus directe permettrait certainement de s’en rendre compte : il suffirait de demander aux Américains s’ils ont bénéficié un jour de coupons d’alimentation. Même si certains Américains préfèreront peut-être cacher cet événement de leur vie, ce biais d’omission ne sera jamais aussi énorme que celui des analyses de survie précédentes. Soyons clair : leur méthode est une machine à produire des énormités.

 

[1] Le seuil de pauvreté retenu est ici de 1,5 fois la valeur du panier de biens propres à satisfaire a minima les besoins de base.




Quelle stratégie pour le rééquilibrage interne de la zone euro ?

par Sébastien Villemot et Bruno Ducoudré

Depuis le déclenchement de la crise financière, la zone euro a fait des efforts importants pour résorber ses déséquilibres commerciaux. En 2009, seuls l’Allemagne, les Pays-Bas et l’Autriche présentaient un excédent de leur compte courant, tandis que tous les autres, et en particulier la France, l’Italie et l’Espagne enregistraient un déficit courant, de sorte que le solde courant de la zone euro était déficitaire (−0,7 % du PIB). Cinq années plus tard, en 2014, la situation est radicalement différente. La zone euro présente un important excédent courant de 3,4 % du PIB ; la quasi-totalité des pays sont en excédent courant (graphique).

IMG_VD_040116

Il ne faut pas pour autant en conclure que la zone euro a corrigé ses déséquilibres commerciaux car plusieurs motifs d’inquiétude subsistent. D’une part, une partie des excédents courants sont de nature conjoncturelle, en particulier dans les pays du Sud, du fait d’une demande interne déprimée. D’autre part, de par son ampleur, l’excédent courant de la zone euro est porteur de risques déflationnistes : si la politique monétaire expansionniste de la BCE permet pour le moment de contenir les pressions à l’appréciation de l’euro, ces dernières finiront par se matérialiser une fois que le cycle monétaire entrera dans sa phase de normalisation, engendrant de la déflation importée et des pertes de compétitivité vis-à-vis du reste du monde.

Mais surtout, la résorption du déficit courant de la zone euro vis-à-vis du reste du monde ne signifie pas que les déséquilibres internes à la zone aient été corrigés. L’analyse que nous avons menée dans le rapport iAGS 2016 montre que ceux-ci restent importants, même s’ils se sont réduits depuis le début de la crise.

A partir d’une maquette permettant de simuler l’évolution des balances courantes des pays de la zone euro en fonction des différentiels de compétitivité-prix[1], nous avons calculé les ajustements nominaux au sein de la zone euro nécessaires pour atteindre des balances courantes équilibrées pour tous les pays. L’équilibre est ici défini comme la stabilisation de la position extérieure nette, à un niveau compatible avec les procédures européennes (c’est-à-dire supérieure à −35 % du PIB), et une fois les écarts de production refermés dans tous les pays.

Le tableau ci-dessous présente le résultat de ces simulations et permet de rendre compte des ajustements opérés depuis le début de la crise, et des ajustements restant à réaliser relativement à l’Allemagne, utilisée comme point de référence.

TAB_040116

En 2014 les désajustements nominaux en zone euro restent importants. Plusieurs groupes de pays émergent. L’Autriche et les Pays-Bas sont sur un pied d’égalité avec l’Allemagne. À l’opposé, la Grèce doit effectuer une dépréciation de près de 40 % par rapport à l’Allemagne, en dépit des sacrifices déjà consentis ; car, même si la balance courante grecque est aujourd’hui proche de l’équilibre, cela est dû à l’écart de production qui est très creusé (−12,6 % en 2014 selon l’OCDE) et qui a artificiellement amélioré le solde extérieur par compression de la demande interne. Entre ces deux extrêmes se trouve un groupe de pays qui doit procéder à une dépréciation d’environ 20 % par rapport à l’Allemagne, et qui inclut la France, l’Espagne, le Portugal, la Belgique et la Finlande. L’Italie quant à elle est dans une position un peu meilleure, avec 10 % de dépréciation relative requise, grâce à son compte courant en surplus (1,9 % du PIB en 2014) et sa position extérieure nette relativement favorable (−27,9 % du PIB).

Ces déséquilibres nominaux ne peuvent pas être résolus par des mouvements de taux de change, puisque tous ces pays partagent la même monnaie. L’ajustement doit donc être réalisé par le biais de mouvements de prix relatifs, autrement dit par des différentiels de taux d’inflation entre pays. Ainsi, l’inflation en Allemagne (ainsi qu’aux Pays-Bas et en Autriche) doit être durablement plus élevée que celle du groupe intermédiaire, qui doit elle-même être plus élevée que celle de la Grèce. Et, compte tenu de l’importance des salaires dans la détermination des prix de valeur ajoutée, ce résultat sera essentiellement obtenu par des différentiels dans l’évolution des coûts salariaux unitaires nominaux.

Plusieurs stratégies sont possibles pour parvenir à cet objectif. Celle qui a été suivie jusqu’à présent a consisté à faire de la réduction des coûts salariaux la norme, dans une logique non coopérative de course à la compétitivité. L’Allemagne ayant choisi de contenir fortement ses prix et ses salaires, les autres pays n’ont pu s’ajuster qu’en diminuant encore plus leurs coûts, que ce soit par des baisses de salaires (comme en Grèce ou en Espagne) ou par la baisse des prélèvements sur les entreprises (comme en France). Ces stratégies ont certes permis de réduire les déséquilibres au sein de la zone depuis 2008, comme le montre notre tableau, mais l’ajustement est encore loin d’être achevé, et surtout le coût économique en fut important. La baisse des salaires dans les pays du Sud a pesé sur la demande, et donc sur l’activité, tandis que les pressions déflationnistes ont été renforcées et restent menaçantes malgré l’action énergique de la BCE.

Une autre politique consisterait à coordonner les évolutions salariales au sein des pays de la zone euro, afin de permettre à la BCE d’atteindre son objectif d’inflation de 2 %, tout en résorbant les désajustements nominaux. Chaque pays se fixerait une cible d’évolution de ses coûts salariaux unitaires. Les pays actuellement sous-évalués (Allemagne, Pays-Bas, Autriche) auraient une cible supérieure à 2 %, tandis que les pays surévalués auraient une cible positive mais inférieure à 2 %. Une fois les déséquilibres résorbés, ce qui prendra nécessairement de nombreuses années, les cibles pourraient être harmonisées à 2 %.

L’ajustement relatif des coûts salariaux unitaires peut aussi passer par les différentiels de gains de productivité. Ce point renforce l’importance des politiques de relance de l’investissement dans la zone euro, à même d’améliorer la productivité et la compétitivité des pays devant réaliser un ajustement nominal important. L’ajustement des coûts salariaux unitaires par ce biais permettrait ainsi de relâcher un peu plus la pression à la baisse sur les salaires et la demande interne en zone euro.

Une telle politique représenterait un changement profond dans la gouvernance économique de la zone euro, et demanderait une stratégie de coopération renforcée. Le maintien de la cohésion de l’Union monétaire est pourtant à ce prix.

[1] même si la compétitivité-hors prix joue également un rôle dans les mécanismes commerciaux, nous avons fait abstraction de celle-ci faute de mesure quantitative adéquate.




Que nous apprennent les données macro-sectorielles sur les premiers effets du CICE ? Evaluation pour la période 2014-2015t2

Par Bruno Ducoudré, Eric Heyer et Mathieu Plane

A la suite de la remise du Rapport Gallois sur le Pacte de compétitivité pour l’industrie française, le Crédit d’Impôt Compétitivité Emploi (CICE) a été instauré par la loi du 29 décembre 2012. Il s’agit d’un crédit d’impôt qui permet à une entreprise de déduire de son impôt sur les bénéfices une somme égale à 6 % des salaires bruts (hors cotisations sociales patronales) versés aux salariés dont la rémunération est inférieure ou égale à 2,5 fois le SMIC.

Dans une étude que nous venons de publier (Document de travail OFCE, n° 2015-29), nous utilisons l’information contenue dans les comptes nationaux trimestriels jusqu’au deuxième trimestre 2015 pour 16 branches de l’économie française afin d’obtenir une première analyse des effets du CICE sur l’économie.

Les premiers résultats indiquent que le CICE contribuerait depuis sa mise en place à deux effets significatifs concernant les salaires et l’emploi. Les branches ayant reçu le plus de CICE ont vu une augmentation relative de leurs salaires et davantage de créations ou de sauvegardes d’emplois. Nous trouvons également un effet relatif négatif sur les prix de valeur ajoutée (effet compétitivité-coût) mais cet effet nous semble plus fragile à ce stade, car il nécessite pour être significatif d’exclure trois branches de l’estimation (secteur non marchand, services à la personne, services immobiliers).

Ainsi, selon les résultats de nos estimations sur les 16 branches, pour un montant de CICE équivalent à 1% de la masse salariale, l’emploi d’une branche relativement aux autres branches augmenterait de 0,5% et les salaires augmenteraient de 0,7%. Enfin, à partir des résultats des estimations réalisées simultanément, nous pouvons quantifier ces effets relatifs interbranches, qui seraient de 1,1% pour les salaires et de 120 000 pour l’emploi (création ou sauvegarde).

Mais attention, ces effets relatifs ne doivent pas être interprétés comme un impact macroéconomique global du CICE. Plus précisément, la méthode d’évaluation ne permet ni de déterminer les effets macroéconomiques à moyen et long terme du CICE, ni de donner une répartition précise de son affectation entre hausse des salaires et de l’emploi, baisse des prix et restauration des marges des entreprises. En effet, cette méthode ne prend pas en compte l’ensemble des canaux de diffusion du CICE sur l’économie. Or ceux-ci sont de plusieurs ordres : la baisse des prix de valeur ajoutée dans une branche peut se répercuter sur d’autres branches utilisatrices ; les effets positifs du CICE à attendre sur l’activité peuvent se traduire par un surcroît d’emplois et de salaires non mesuré ici (effet de bouclage macroéconomique) ; à contrario, les effets négatifs du financement du CICE via une hausse des impôts et une moindre progression de la dépense publique peuvent peser sur l’activité, l’emploi, les salaires et les prix (effet de financement de la mesure). Plus généralement, l’ensemble des travaux portant sur des données par branche ou microéconomiques ne sera pas à même d’évaluer les effets macroéconomiques du CICE.

Une prochaine étape consistera à intégrer ces élasticités estimées par branche dans des simulations réalisées à l’aide d’un modèle macro-sectoriel de façon à prendre en compte les effets du bouclage macroéconomique, des interdépendances sectorielles et du financement de la mesure. En utilisant le modèle multisectoriel d’équilibre général dynamique ThreeME développé à l’OFCE, et qui intègre notamment des effets tels que ceux du commerce extérieur ou les relations interbranches, il sera possible de présenter les effets macroéconomiques ex post du CICE sur l’emploi, les salaires et les prix, mais aussi sur l’activité économique, les taux de marge, l’investissement et le commerce extérieur.

 

 




Des faubourgs de Londres à l’embrasement mondial : une brève histoire des émissions

Par Aurélien Saussay

Une nouvelle carte interactive des émissions mondiales de CO2 de 1750 à 2010 permet de mieux comprendre les responsabilités historiques des différentes régions du globe dans la crise climatique.

La COP 21 s’est conclue le 12 décembre 2015 sur un accord historique. Alors que 195 pays viennent de s’accorder sur la nécessité de limiter le réchauffement de la planète à 2 degrés à la fin du siècle, c’est le moment de revenir en arrière sur l’histoire des émissions de CO2 depuis le début de la révolution industrielle. Jusqu’à la fin des négociations, la question de la responsabilité historique des différents pays est restée l’un des principaux obstacles sur le chemin d’un accord mondial sur le climat. Les pays émergents, d’industrialisation récente, et les pays en voie de développement qui entament tout juste leur décollage économique refusent avec raison de fournir des efforts comparables aux pays développés.

Ce sentiment est validé par une nouvelle carte interactive retraçant 260 années d’émissions de CO2 issues de la combustion d’énergie fossile et de la production de ciment à la surface de la planète[1]. Cette carte permet d’explorer les émissions de chaque pays et leur répartition dans l’espace au cours des deux derniers siècles de façon interactive, tant dans leur totalité que par habitant. Elle permet également de suivre l’évolution des émissions mondiales et la consommation progressive du budget carbone permettant de limiter le réchauffement en deçà de 2 degrés.

 

post-aurélien2

 

En combinant des données historiques d’émissions par pays issues du CDIAC  (de 1750 à 2010) avec des données de densité de population décennales produites par le projet européen HYDE (de 1750 à 2010 également), il est possible d’estimer la répartition des émissions dans l’espace et dans le temps à la surface du globe – sur une grille d’une résolution de 5’ d’arc (5’ étant égal à 1/12e de degré, soit environ 10 km par 10 km à l’équateur).

Cette carte interactive illustre les contributions de chacune des régions du globe depuis le milieu du XVIIIe siècle – et offre du même coup un récit saisissant de la diffusion progressive de la révolution industrielle au cours des deux derniers siècles.

Ces données illustrent de nombreux points clés pour mieux comprendre le débat sur les responsabilités historiques différenciées :

– Jusqu’au milieu du 20e siècle, seuls l’Europe et les États-Unis (et, dans une moindre mesure, le Japon) contribuent de manière significative aux émissions globales.
– Ce n’est que ces 30 dernières années que le reste du monde s’est « allumé », Chine en tête.
– A la faveur de l’accélération de la croissance économique dans les pays émergents, les émissions se sont emballées ces quinze dernières années.
– Pondérées par la distribution de la population mondiale, les émissions apparaissent très concentrées dans l’espace. Des données plus fines encore, utilisant notamment la localisation des centrales thermiques et des usines de production les plus énergivores (ciment, aluminium, papier par exemple) renforceraient encore ce constat.

Cette brève histoire des émissions de CO2 à travers le globe nous rappelle la responsabilité particulière des pays occidentaux dans la lutte contre le réchauffement climatique. La précocité de la révolution industrielle y a certes permis un décollage économique bien antérieur au reste du monde, mais a également conduit à émettre une part disproportionnée du budget total d’émissions auquel nous avions droit pour ne pas dépasser l’objectif d’un réchauffement limité à deux degrés.

Reconnue par l’Accord de Paris, cette responsabilité historique différenciée impose aux pays occidentaux un effort particulier dans la lutte contre le réchauffement climatique. Cette responsabilité doit se traduire par un effort accru en matière de transferts financiers et technologiques pour s’assurer que l’émergence des pays en voie de développement limite au maximum le recours aux énergies fossiles, sans pour autant entraver leur décollage économique.

 


[1] Ces émissions n’incluent pas les émissions issues des modifications d’utilisation des sols (LUCLUF) ou de l’utilisation des engrais. Il est malheureusement très difficile de reconstituer ces émissions sur l’ensemble de la période considérée.