Pas de “TVA sociale” mais une “CSG sociale” ?

par Jacques Le Cacheux

La dégradation de l’emploi et du solde des échanges extérieurs de la France incite à une réflexion sur la compétitivité des entreprises françaises. Mais comment rétablir cette compétitivité ? Est-ce un problème de coût du travail, comme l’affirme avec insistance le MEDEF ? Ou ce facteur n’entre-t-il finalement que pour une faible part dans l’explication de ces médiocres performances ?En choisissant, au printemps dernier, l’option de la « TVA sociale » – augmentation de 1,6 point du taux normal de TVA et affectation du surcroît de recettes à une baisse des cotisations sociales patronales, de l’ordre de 13 milliards d’euros, ciblée sur les salaires compris entre 1,3 et 1,6 SMIC –, le précédent gouvernement avait clairement privilégié la stratégie de baisse – modérée – du coût de la main-d’œuvre. En décidant de revenir sur cette hausse de TVA, qu’il considère injuste, le gouvernement actuel semble indiquer que l’allègement du coût du travail n’est pas sa priorité. Dans le même temps, pourtant, le discours du Président de la République en ouverture de la Conférence sociale ouvre la voie à une réflexion sur le financement de la protection sociale, suggérant ainsi que la question de l’allègement du coût du travail n’est pas close, mais que l’instrument préféré pourrait être la Contribution sociale généralisée (CSG). Sans craindre le pléonasme, certains évoquent désormais une « CSG sociale » !

1 – Coût du travail : la France a-t-elle un problème ?

Le coût de la main-d’œuvre est-il plus élevé en France que chez nos partenaires, notamment au sein de la zone euro ? Le diagnostic n’est, en réalité, pas aisé, et les avis divergent. Selon les données publiées par Eurostat, et qui concernent l’ensemble du secteur marchand, le coût horaire de la main-d’œuvre atteignait, en 2011, 34,20 euros en France, soit près de 7 euros de plus que la moyenne des pays de la zone euro. En Allemagne, il n’était que de 30,1 euros, mais dépassait 39 euros en Belgique. Pourtant, cet indicateur ne renseigne guère sur la compétitivité-coût, puisqu’il faut prendre en compte les différences de productivité de la main-d’œuvre. C’est donc habituellement sur la base du coût unitaire de main-d’œuvre – ou coût salarial unitaire, c’est-à-dire le coût de main-d’œuvre par unité produite – que l’on compare les compétitivités ; mais on ne dispose pas de mesure fiable des niveaux relatifs, de sorte qu’il faut se contenter d’indice et de variations.

En se référant toujours aux données fournies par Eurostat, on peut se faire une idée de l’évolution relative des positions compétitives des différents pays européens. Pour tenir compte d’éventuels effets des variations de change entre les monnaies, l’indicateur de compétitivité-coût retenu ici est le taux de change effectif réel, calculé sur la base des coût salariaux unitaires, qui pondère les coûts relatifs des partenaires commerciaux en fonction de leur part dans les échanges extérieurs du pays considéré : une hausse de cet indice mesure donc une perte de compétitivité des entreprises du pays. Plusieurs mesures sont disponibles, couvrant des champs géographiques ou sectoriels différents.

Si l’on se penche d’abord sur les compétitivités relatives au sein de la zone euro, où, par définition, il n’y a pas d’effet de change (Graphiques 1 et 2), le message est ambigu : pour l’ensemble de l’économie, les évolutions de la compétitivité française sont très voisines de celles de l’Allemagne, depuis le lancement de la monnaie unique, l’une et l’autre tendant à améliorer leur compétitivité-coût par rapport à leurs partenaires de la zone. Certes l’Allemagne faisait un peu mieux jusqu’en 2008 ; mais la récession de 2009 y a si fortement ralenti la productivité de la main-d’œuvre – du fait notamment d’un recours massif au chômage partiel – que les gains relatifs par rapport à la France s’en sont trouvés pratiquement effacés.

Source : Eurostat.

Pourtant, l’indicateur se référant à la seule industrie manufacturière délivre un message bien différent (graphique 2) : en moyenne depuis le lancement de l’euro, la compétitivité-coût de l’industrie française par rapport à ses partenaires de la zone s’est sensiblement maintenue, se dégradant très légèrement sur la période ; mais dans le même temps, l’industrie allemande a, quant à elle, très substantiellement amélioré la sienne – de près de 20%.

Source : Eurostat.

Si l’on se penche, maintenant, sur la compétitivité-coût française vis-à-vis des pays tiers, hors zone euro, les évolutions sont, de manière peu surprenante, dominées par les variations du taux de change externe de l’euro : l’appréciation réelle de la monnaie européenne depuis 2000 a dégradé la compétitivité-coût des économies française et allemande dans des proportions comparables (graphique 3). Mais dans l’industrie (graphique 4), la modération salariale allemande a permis de limiter la dégradation à un peu plus de 10 % entre 2000 et 2011, tandis que, sur la même période, la dégradation subie par l’industrie française est voisine de 25 % ; elle a même dépassé 40 % pendant la période où le taux de change de l’euro battait des records (été 2008).

Il est difficile, dans ces conditions, de nier la dégradation de la position compétitive de l’économie française et, singulièrement, de son industrie. Certes, la dépréciation récente de l’euro lui permet de réduire un peu les pertes de compétitivité subies au cours des années antérieures ; mais elle ne modifie pas les positions relatives au sein de la zone euro, qui concentre environ 2/3 du commerce extérieur de ses membres.

Source : Eurostat.

Au contraire, la stratégie compétitive de l’Allemagne – notamment grâce à une politique soutenue de modération salariale, mais aussi à des choix de restructuration industrielle et de spécialisation – se reflète dans la progression spectaculaire de son taux d’ouverture commerciale (graphique 5) : proche de celui de la France en 1995, il a doublé en Allemagne, alors qu’il est demeuré sensiblement constant en France.

Source : Eurostat.

2 – Une réforme fiscale pour alléger le coût du travail

Le coût de la main-d’œuvre n’est sans doute pas le seul facteur de dégradation de la compétitivité de l’économie française et, notamment, de son industrie ; mais ses évolutions comparées à celles observées chez nos principaux partenaires, et singulièrement en Allemagne, suggèrent qu’elles contribuent aux mauvaises performances enregistrées ces dernières années tant en matière d’emploi que de commerce extérieur. Il apparaît donc légitime de s’interroger sur les moyens de l’alléger, en particulier en réformant le financement de la protection sociale, qui en constitue une composante importante. D’où le débat sur la baisse des cotisations patronales, et sa compensation par la hausse d’un autre prélèvement : TVA ou CSG ?

Beaucoup de choses ont été dites sur les avantages et les inconvénients de chacune des deux options[1]. Mais quelques éléments de comparaison des évolutions récentes permettront sans doute d’éclairer ce débat. En premier lieu, le poids respectif de la fiscalité pesant sur la consommation et sur les revenus du travail a connu, au cours des dernières années, des évolutions sensibles en France et en Allemagne (graphiques 6 et 7) : tandis que le taux implicite d’imposition de la consommation n’a cessé de se réduire en France depuis la fin des années 1990, sous l’effet de la baisse d’un point du taux normal de TVA et de mesures sectorielles (restauration et travaux dans les logements anciens), il a augmenté en Allemagne du fait de la hausse de 3 points du taux normal de TVA en 2007 ; dans le même temps, le taux implicite d’imposition du travail est demeuré assez stable, à un niveau élevé, en France, tandis qu’il se réduisait en Allemagne.

Source : Eurostat.

Et cette réduction a été obtenue en partie grâce à une baisse significative – environ 1 point de PIB – des cotisations sociales employeurs, qui sont, au contraire, restées à un niveau élevé en France (graphique 8).

Dans ces conditions, des marges de manœuvre semblent exister du côté de la fiscalité pesant sur la consommation, ce qui avait incité le précédent gouvernement à opter pour un alourdissement de la TVA, compensé par une réduction de cotisations sociales employeurs, que l’actuelle majorité vient d’abroger.

Parmi les défauts d’une hausse de la TVA, deux caractéristiques ont été mises en exergue dans les débats récents. En premier lieu, une telle hausse est, de fait, une « dévaluation fiscale », qui peut dès lors être considérée comme non coopérative et inamicale par nos partenaires au sein de la zone euro, d’où proviennent plus de la moitié de nos importations. Bien sûr, mais de leur côté, presque tous nos partenaires n’ont pas hésité à augmenter la TVA ces dernières années, et certains prévoient même de l’alourdir encore ; la France a donc, effectivement subi les « dévaluations fiscales » de ses voisins. Bien sûr, une stratégie européenne coordonnée serait préférable ; mais la France doit-elle décider de subir seule les coûts économiques de l’absence d’une telle coopération ?

Source : Eurostat.

En second lieu, les détracteurs de la hausse de la TVA pointent son caractère « injuste » et les risques d’amputation du pouvoir d’achat, donc de freinage de la croissance. Mais, comme le soulignait la précédente note sur ce thème, la hausse des prix résultant d’une augmentation du taux de TVA devrait être très limitée et, dans l’éventualité d’une hausse, les procédures d’indexation des minima sociaux, du SMIC et des retraites sont telles que les catégories disposant des revenus les plus modestes ne devraient pas subir de baisse de pouvoir d’achat. Sauf, bien sûr, si le gouvernement envisageait de suspendre les mécanismes d’indexation, ce qui constituerait une manière particulièrement opaque de rogner la générosité de la protection sociale et le salaire minimum.

La CSG est-elle plus « juste » ? On fait volontiers valoir qu’avec son assiette large – la quasi-totalité des revenus –, elle frappe les revenus du patrimoine. Mais elle frappe aussi tous les bas revenus, qu’ils soient du travail, de remplacement, ou de retraite, dès le premier euro, car elle est proportionnelle : pour les détenteurs de revenus modestes, elle pèsera donc plus lourdement sur le pouvoir d’achat que la hausse de la TVA.

On peut souhaiter, malgré tout, privilégier la CSG, instrument de prélèvement à assiette large qui permet de faire contribuer l’ensemble des revenus au financement de la protection sociale : c’était, dès le départ, sa justification et sa raison d’être. Mais dans ce cas, le souci de justice exigerait que l’on accompagne cette montée en puissance d’une réforme fiscale plus ambitieuse, qui redonne une véritable progressivité à l’ensemble de prélèvements directs et, si possible, aux transferts sociaux sous condition de ressources.

Alléger le coût du travail en transférant la charge d’une partie du financement de la protection sociale vers des prélèvements autres que les cotisations sociales apparaît souhaitable et possible, tout en rendant le système fiscal français plus juste. Pour ce faire, il convient de compenser la baisse des cotisations sociales, patronales, mais aussi éventuellement salariés, par un alourdissement des prélèvements pesant sur la consommation et sur les activités polluantes, afin de modifier résolument les prix relatifs, donc les incitations qui pèsent sur les entreprises et les ménages dans leurs choix de techniques de production et d’emploi et dans leurs choix de consommation ; et de conduire en même temps une réforme de la fiscalité directe qui permette de compenser les effets négatifs de ces modifications sur le pouvoir d’achat des détenteurs de revenus modestes et de rendre l’ensemble des prélèvements directs plus progressifs. Alourdir la CSG sans conduire cette grande réforme[2] serait léser ces catégories.

 

 

 


[1] Voir notamment, J. Le Cacheux, 2012a, « La TVA « sociale », antisociale ? », Blog de l’OFCE, 6 janvier, et E. Heyer, M. Plane et X. Timbeau, 2012, « Impact économique de la « quasi TVA sociale ». Simulations macroéconomiques et effets sectoriels », Débats et politiques, Revue de l’OFCE, n°122, sous la direction de G. Allègre et M. Plane, « Réforme fiscale », mars.

[2] Pour une exposition plus précise des principes d’une telle réforme, voir J. Le Cacheux, 2012b, « Soutenabilité et justice économique. Finalités et moyens d’une réforme fiscale », Débats et politiques, Revue de l’OFCE, n°122, sous la direction de G. Allègre et M. Plane, « Réforme fiscale ».

 




La ré-industrialisation ou le retour de l’âge du “faire”

par Sarah Guillou et Lionel Nesta

« Faire ou faire faire ? » pourrait bien être la nouvelle question existentielle des anciennes puissances industrielles. De David Cameron à François Hollande, les appels à la ré-industrialisation expriment l’inquiétude causée par les pertes d’emplois industriels, comme chez PSA,  mais également l’angoisse de la disparition de nos savoir-faire dans la fabrication elle-même.

Les Etats-Unis ne sont pas en reste et s’inquiètent également de leur devenir industriel devant la désolation que manifestent certains territoires, comme par exemple l’Etat du Michigan ( New York Times, August 24 2011, Does America need Manufacturing ? Les experts alimentent le désarroi, tels Patrick Artus et Marie-Paule Virard qui questionnent ce que serait « La France sans ses usines » (Edition Fayard, 2011), ou Dani Rodrick qui vante les mérites de l’industrie manufacturière (The Manufacturing Imperative – Dani Rodrik – Project Syndicate ). S’il fallait caricaturer la pensée dominante en cours en matière de politique industrielle, on pourrait sans forcer le trait la qualifier de retour à l’âge du « faire ».

Nous mettons en débat la désindustrialisation et la ré-industrialisation pour mieux questionner les objectifs du ministère du Redressement Productif.

La désindustrialisation s’illustre d’abord par les pertes d’emplois manufacturiers

La désindustrialisation désigne la diminution des emplois manufacturiers ainsi que la baisse de la part de l’industrie dans le Produit Intérieur Brut. En 1980, la France comptait plus de 5,1 millions d’emplois alors qu’elle en compte 3,1 millions en 2008, avant la crise récente. Entre 1980 et 2008, la France a donc perdu presque 2 millions d’emplois manufacturiers[1], soit une diminution relative de 38%. De même en 1980, la part de la valeur ajoutée manufacturière dans le PIB s’élevait à 19,2% diminuant à 14,7% en 2008, soit une baisse de 23%. Toutefois, la baisse de la part de la valeur ajoutée dans le PIB ne doit pas être confondue avec la baisse de la valeur ajoutée elle-même. Entre 1980 et 2008, la valeur ajoutée manufacturière en volume a augmenté de 36%, ce qui avec la baisse concomitante de l’emploi manufacturier, révèle des gains de productivité du travail tout à fait substantiels.

La désindustrialisation n’est pas plus sévère en France qu’ailleurs

Les discours sur le « déclin » de la France des uns et des autres suggèrent une exposition singulière de la France à la désindustrialisation structurelle. Il n’en est rien. Si on prend la période 1992-2008, la France comme l’Allemagne observe une baisse de 21% de l’emploi manufacturier, le Royaume-Uni et le Japon une diminution de 31 et 28% respectivement. Les Etats-Unis connaissent une baisse de 18% et l’Italie de 6%. Ces pourcentages cachent des volumes d’emplois perdus très importants. Alors que la France détruit ainsi presque 900 000 emplois, l’Allemagne en perd plus de 2 millions, les Etats-Unis 3,3 millions et le Japon 4,3 millions.

Tertiarisation, productivité, et nouvelle division internationale du travail sont les causes principales de la désindustrialisation

La désindustrialisation des années 1980 et 1990 s’explique avant tout par la tertiarisation qui découle du développement des activités au service de l’industrie et qui est elle-même alimentée par deux moteurs : l’externalisation des activités de services des entreprises manufacturières et le changement qualitatif de la production qui incorpore de plus en plus de contenu en services. Ce double mouvement est le propre des économies technologiquement avancées et est amené à se poursuivre. Ensuite, la désindustrialisation est plus fondamentalement la conséquence du progrès technique. Ce dernier entraîne immanquablement des gains de productivité qui eux-mêmes diminuent le contenu en travail de l’unité de production. Le même niveau de production demande moins de travail. Enfin et plus récemment, la globalisation de l’économie a accéléré la mutation industrielle en cours en raison de l’arrivée de nouveaux producteurs comme la Chine (sans une augmentation équivalente de la demande pour le moment) et en raison de l’intensification des opportunités pour les entreprises de division internationale du travail.

La désindustrialisation résulte de l’interaction de ces trois causes ­– tertiarisation-productivité-globalisation – dont il faut rappeler qu’elles participent a priori à une dynamique positive pour la croissance économique. Toutefois les changements induits ne sont pas neutres sur la nature des emplois et les qualifications « employables ». Les emplois de fabrication disparaissent au profit d’emplois de gestion de la fabrication – de la conception à la distribution. En théorie, cela s’accompagne d’une diminution de la pénibilité des tâches productives et d’une libération de ressources en emplois susceptibles de générer des richesses par ailleurs. Mais le redéploiement de ces ressources se heurte à des barrières à la mobilité du travail, principalement en raison de la spécificité des compétences et des qualifications.

Toute politique de croissance ne devrait a priori pas empêcher le mouvement de fond de désindustrialisation qui traduit en fait une mutation du système productif, mais elle ne peut se soustraire à considérer très sérieusement les conséquences sur la nature des emplois. Cette préoccupation devient même critique en temps de crise.

La crise a révélé la fragilité du système productif français

La crise a indéniablement constitué un choc négatif sur l’emploi manufacturier. La dynamique de l’emploi dans l’industrie connaît depuis 2007 deux phases bien distinctes : une accélération des destructions d’emplois jusqu’en 2010 puis une stabilisation de son niveau (voir graphique 2). Cette stabilisation, sur la dernière période, rétablit le rythme de désindustrialisation à son niveau antérieur. Précisément, les statistiques sur l’emploi de l’INSEE montrent qu’entre le premier trimestre 2008 et le premier trimestre 2012, l’industrie a détruit 301 000 emplois. Sur une période identique, mais de croissance économique plus soutenue, entre le premier trimestre 2003 et le premier trimestre 2007, l’industrie avait détruit 325 000 emplois.

La surprise vient davantage du marché de l’emploi dans les services marchands. Alors que durant la période de croissance 2003-2007, les services créaient plus d’un million d’emploi, largement de quoi absorber les emplois perdus dans l’industrie, ces mêmes services n’en créent pas plus de 180 000 sur la dernière période. Le rôle des services comme pourvoyeur essentiel des emplois est rompu dès le premier trimestre 2008 (graphique 2). Cela explique peut-être pourquoi aujourd’hui plus qu’auparavant, la désindustrialisation est devenue bien plus difficile à tolérer.

On pourrait se satisfaire de l’augmentation de la production industrielle depuis fin 2008 et de la stabilisation de l’emploi manufacturier depuis 2010. Mais le tassement de l’indice de la production industrielle ne présage rien de bon. On peut en effet craindre que les entreprises aient joué sur la dualité du marché du travail en se séparant d’abord de leur main-d’œuvre précaire. De plus, les fermetures d’usines et les annonces récentes de plans sociaux laissent penser qu’une reprise de la désindustrialisation est en cours et que la stabilisation de la période précédente reflète plutôt un report de décisions de licenciements. Ces évolutions révèlent l’attentisme des acteurs dans le contexte électoral récent mais aussi la fragilité du système productif français et sa dépendance à la conjoncture européenne incertaine.

L’évolution récente a ainsi accentué l’inquiétude sur la vitalité de nos industries. Cette inquiétude naît du rôle central de l’industrie manufacturière dans la croissance économique.  Représentant moins d’un emploi sur sept, l’industrie manufacturière concentre cependant 75% des exportations et 80% de l’effort de recherche national privé. Renouveler l’industrie française, c’est donc encourager les activités de R&D, promouvoir à terme les exportations et enfin espérer créer des emplois nouveaux.  D’où la question suivante : faut-il réindustrialiser, et revenir à l’âge du « faire » ?

La ré-industrialisation est-elle un moyen d’équilibrer la balance commerciale ?

Plus de 75% des exportations sont constituées de produits manufacturés. Autrement dit, 12% de notre production est responsable directement de 75% des exportations. Donc, il semblerait qu’à défaut de produire des produits manufacturés, on serait condamné au déficit commercial. Mais attention, il ne faut pas produire forcément un grand volume de produits, il faut : (1) surtout produire une grande valeur de produits, ce qui peut se faire avec beaucoup de R&D et moins d’emplois ; (2) en consommer moins que l’on en produit. Cela signifie qu’un pays peut très bien avoir un excédent commercial avec une forte valeur ajoutée industrielle, une consommation intérieure atone relativement au reste du monde, et une forte désindustrialisation. Autrement dit, il n’existe pas de relation bijective entre déficit commercial et désindustrialisation. Une augmentation des exportations n’assurerait pas nécessairement une création nette d’emplois, si par exemple elle résultait d’innovation de procédés économes en travail, ou si encore elle s’accompagnait en retour d’un accroissement des importations de biens intermédiaires.

Ceci posé, soutenir l’industrie avec succès pourrait-il permettre une relance des exportations ? Oui, à condition que ce soutien renforce l’attractivité des produits domestiques et réponde à la demande mondiale. Mais vouloir un haut niveau d’exportation est une conséquence de l’amélioration préalable des gammes produites. C’est parce que les produits de nos industries seront attractifs qu’ils satisferont la demande mondiale et augmenteront les exportations.

La ré-industrialisation est-elle nécessaire au maintien des investissements en R&D ?

L’industrie manufacturière est le lieu majeur des investissements en Recherche et Développement. Faut-il alors s’inquiéter du recul de l’industrie manufacturière au regard du niveau des investissements dans la R&D ? L’inquiétude ne serait sérieuse que si la valeur ajoutée manufacturière diminuait. Car comme on l’a vu, la désindustrialisation est elle-même en partie causée par les conséquences en termes de productivité des investissements de R&D. En conséquence, il existe une certaine contradiction à vouloir une augmentation des investissements en R&D – et donc une augmentation de la productivité – et à refuser  le processus de désindustrialisation. La seule manière de réconcilier l’investissement en R&D et la création d’emplois dans l’industrie est de créer de nouvelles activités, de favoriser les innovations en produits afin d’augmenter le niveau de la production à productivité du travail constante. Mais cela suppose une modification de la spécialisation productive, comme nous l’expliquons ci-dessous.

La ré-industrialisation est-elle créatrice d’emploi ?

Retrouver les emplois perdus de l’industrie semble être le motif principal d’une politique de ré-industrialisation pour l’économie française, si marquée par le chômage. Deux cas de figures sont à alors envisager : le ré-industrialisation s’opère sur des activités existantes, la structure de la spécialisation productive restant identique (autrement dit, on conserve les mêmes parts dans le PIB des industries/produits) ; le ré-industrialisation est basée sur des activités nouvelles, nécessairement innovantes, la structure de la spécialisation étant alors modifiée.

Le premier cas est selon nous le plus délicat. Il consiste à persévérer dans des activités existantes en soutenant la création d’emplois. Pour ce faire, on peut diminuer l’intensité capitalistique (le rapport capital sur travail) et substituer du travail au capital. Mais il faut reconnaître que remplacer des machines par des ouvriers revient à accepter une forme de régression technologique, rendant nos activités encore moins compétitives. Une autre solution consisterait à accroître la production pour augmenter les facteurs consommés (capital et travail). Cela suppose un surcroît de demande (mais dans ce cas-là, d’où viendrait-elle ?) et/ou une amélioration des conditions de l’offre (baisse du coût du travail, baisse des barrières à l’entrée). Mais attention, toute amélioration des conditions de l’offre n’est pas forcément créatrice d’emploi. Une stratégie d’externalisation à l’étranger, par exemple, peut diminuer et les coûts de production, et l’emploi.

Dans le deuxième cas, il s’agit de conduire une politique industrielle qui modifie la structure de la spécialisation du pays. Cette ré-industrialisation doit s’effectuer autour d’activités nouvelles, créatrice de croissance, plus adaptée à la demande interne et mondiale. Ces activités nouvelles doivent être génératrices d’externalités positives et d’effets de diffusion dans l’ensemble du tissu industriel. Il ne s’agit pas d’envisager une politique industrielle dirigiste qui décide ex ante des activités futures, mais plutôt de définir une politique qui autorise et incite à la création d’activités et de gammes nouvelles. C’est en effet en dégageant une valeur ajoutée (par travailleur) plus importante que les termes de l’échange deviendront plus favorables. Une telle politique, menée avec succès, ne peut cependant pas garantir un solde net d’emplois créés positif. Rien ne dit que les nouvelles activités auront un contenu en emplois supérieur aux activités sur le déclin.

Le retour à l’âge du « faire » n’est pas simplement un jeu de mot

Cette expression suggère que la ré-industrialisation risque d’aller à rebours du changement technique, de la croissance de la productivité, de l’extension du libre-échange et de la division internationale du travail qui sont des moteurs de la croissance économique.

La ré-industrialisation du pays ne peut se décréter ex nihilo. Elle doit procéder d’une politique de formation de la main-d’œuvre, seule garante d’une production à haute valeur ajoutée, d’une exigence de qualité via des normes ambitieuses, de programmes de recherche et de développement de technologies hautement génériques. C’est sur le maintien ou le développement de cette compétitivité que le gouvernement doit travailler et qu’une politique industrielle doit être définie. S’il faut en attendre la création d’emplois, alors ces derniers ne peuvent résulter que d’un regain de compétitivité.

Nous pensons enfin que ré-industrialisation et redressement productif ne sont pas synonymes. Le premier terme définit un résultat, en termes d’emploi, mais ne s’exprime pas sur les conditions de sa mise en œuvre. Le redressement productif implique des politiques créant les conditions de la croissance des entreprises françaises que les nombreux rapports économiques n’ont cessé de réclamer[2]. Il importe donc que la politique industrielle ne se confonde pas avec l’objectif de ré-industrialisation.


[1] Exactement 1 970 000, source OCDE 2012, base de données OCDE-STAN.

[2] Rapport Cahuc-Kramarz, 2004 ; Rapport Attali, 2008 ; Rapport Aghion et al., 2006 et 2010.




La suppression de la défiscalisation des heures supplémentaires va-t-elle créer des emplois ?

par Eric Heyer

Avant la conférence de presse du 26 juillet 2012 au cours de laquelle l’OFCE présentera une évaluation du projet économique du gouvernement Ayrault, nous dressons un bilan de la défiscalisation des heures supplémentaires et de son exonération de cotisations sociales, puis évaluons l’impact sur l’emploi et les finances publiques de la suppression de cette mesure.

Le nouveau gouvernement a décidé de revenir sur la mesure de défiscalisation des heures supplémentaires et son exonération de cotisations sociales qui s’appliquait depuis le 1er octobre 2007 à l’ensemble des salariés des secteurs public et privé en France. A compter du 1er septembre 2012, l’exonération de charges pour les salariés sera supprimée, quelle que soit la taille de l’entreprise. L’exonération de charges patronales, quant à elle, ne sera maintenue que dans les PME de moins de 20 salariés. Enfin, les heures supplémentaires effectuées à partir du 1er août 2012 seront soumises à l’impôt sur le revenu.

Dans ce billet, nous tenterons dans un premier temps de dresser un bilan de cette mesure en s’intéressant tout particulièrement à ses conséquences sur l’emploi et les finances publiques (1). Dans un deuxième temps, nous évaluerons l’impact sur l’emploi et les finances publiques de cette réforme pour les années à venir (2).

1.     Quel bilan peut-on tirer de la défiscalisation des heures supplémentaires ?

a) Quel coût ex-ante sur les finances publiques ?

En 2011, selon l’ACOSS, le nombre d’heures supplémentaires exonérées au titre de la loi TEPA s’est élevé à 739 millions. Plus de la moitié de ces heures ont été réalisées dans les entreprises de plus de 20 salariés (57,7 %)[1]. Le montant des exonérations afférentes a été de 3,107 milliards d’euros dont plus de 77 % proviennent des baisses de charges salariales. Concernant les baisses de cotisations patronales, elles représentent 693 millions d’euros en 2011 dont 65,5 % sont en faveur des entreprises de moins de 20 salariés[2] (tableau 1).

Par ailleurs, cette mesure permettait aux salariés d’exonérer d’impôt sur le revenu les rémunérations versées au titre des heures supplémentaires effectuées dans la seule limite d’une majoration de 25 %. D’après le PLF 2012, cela a entraîné un manque à gagner de 1,4 milliard d’euros pour les finances publiques en 2011. Au total, le coût ex-ante pour les finances publiques de cette mesure s’est élevé à environ 4,5 milliards d’euros en 2011.

b) Cette mesure a-t-elle induit  une augmentation du nombre d’heures supplémentaires ?

Un des objectifs de cette mesure était d’inciter à une durée du travail plus longue par le biais d’un recours accru aux heures supplémentaires. Cela fut-il le cas ? Compte tenu de la faiblesse de la longueur des séries et d’une impossibilité de comparaison avec un épisode conjoncturel similaire, il apparaît difficile de répondre catégoriquement à cette question. Il nous semble toutefois possible, à la lecture des données fournies par l’ACOSS, de formuler une hypothèse de travail.

Comme l’illustre le graphique 1, après une montée en charge progressive du dispositif au cours des premiers trimestres d’application, le nombre d’heures supplémentaires a atteint un premier pic en fin d’année 2008 avec près de 188 millions au quatrième trimestre. Au cours du premier trimestre 2009, le nombre d’heures supplémentaires s’est effondré de près de 12 %, s’établissant à 165 millions. Si cette baisse est cohérente avec la forte dégradation d’activité observée en France à cette époque, la remontée du volume d’heures supplémentaires depuis est plus surprenante : alors que l’activité ne repartait pas suffisamment pour permettre une décrue du chômage, rendant compte d’une position cyclique dégradée de l’économie, le volume d’heures supplémentaires a franchi un nouveau pic en 2011, atteignant plus de 190 millions au quatrième trimestre. Ce rebond contra-cyclique peut être dû à la défiscalisation associée aux heures supplémentaires : sans elle, compte tenu de la situation conjoncturelle toujours dégradée, leur nombre aurait dû rester voisin de celui observé en début d’année 2009.

Sous cette hypothèse, en 2011, cette mesure aurait favorisé une hausse de près de 80 millions d’heures supplémentaires, soit un supplément de 11 %.

c) Quel impact sur l’emploi ?

L’impact  sur l’emploi est ambigu. En effet, deux effets de sens contraire se superposent :

  1. Le premier est positif et relatif à la baisse du coût du travail et à la hausse du pouvoir d’achat des salariés. Face à la baisse du coût des heures supplémentaires, les entreprises seraient incitées à augmenter le temps de travail des salariés en place, en particulier dans les secteurs où le recrutement de la main-d’œuvre connaît des tensions (bâtiment, hôtellerie, santé ou éducation). La rémunération de ces heures supplémentaires permettrait une augmentation du pouvoir d’achat irriguant l’ensemble de l’économie avec un effet positif sur l’emploi ;
  2. Le deuxième est négatif pour l’emploi : en abaissant le coût d’une heure supplémentaire, cela incite les entrepreneurs à allonger la durée du travail, favorisant alors la situation des insiders (salariés) au détriment de celle des outsiders (les chômeurs). Cela engendre une augmentation de la productivité par tête des salariés français, ce qui est positif pour la croissance potentielle de l’économie française mais défavorable à l’emploi à court terme. Dans un travail antérieur (Heyer, 2011a), mené sur des données regroupant 35 secteurs de l’économie française, nous avons estimé qu’une hausse de 1 % des heures supplémentaires détruirait près de 6 800 emplois salariés du secteur marchand (soit 0,04 % des salariés marchand) dont les trois quarts seraient des emplois intérimaires ;

D’après nos simulations, réalisées à l’aide du modèle macroéconomique de l’OFCE, emod.fr, et dont les principaux résultats sur l’emploi sont résumés dans le tableau 2, l’effet négatif l’emporterait sur l’effet positif : la défiscalisation des heures supplémentaires aurait détruit plus de 30 000 emplois en 2011.

Ce résultat conforte l’idée selon laquelle, dans un contexte conjoncturel dégradé, comme cela est le cas dans la période récente, la défiscalisation des heures supplémentaires apparaît clairement inadaptée et contre-productive pour l’emploi (Heyer, 2011b). Face à un choc négatif imprévu, les entreprises commencent généralement par réduire le temps de travail, puis se séparent de leurs emplois précaires et en particulier de leurs intérimaires, avant finalement de procéder à des licenciements économiques.

Par ailleurs, la baisse des charges salariales et patronales ainsi que l’exonération d’impôt sur le revenu,  coûtent 4,5 milliards d’euros ex-ante (0,22 point de PIB) et ne sont pas financés. En tenant compte de plus du coût pour les finances publiques de la dégradation du marché du travail (-30 000 emplois), cette mesure aurait creusé le déficit public de 6,8 milliards d’euros, soit 0,34 point de PIB en 2011.

Le financement de cette mesure alourdirait son bilan sur l’emploi : selon le mode de financement retenu, les pertes d’emplois auraient finalement été comprises entre 52 000 et 95 000 postes en 2011 (tableau 3).

2.     Quel impact de cette réforme ?

A compter du 1er septembre 2012, l’exonération de charges pour les salariés est supprimée, quelle que soit la taille de l’entreprise. L’exonération de charges patronales, quant à elle, n’est maintenue que dans les PME de moins de 20 salariés.

a) Cette réforme  va-t-elle induire  une baisse du nombre d’heures supplémentaires ?

En maintenant l’exonération de charges patronales pour les entreprises de moins de 20 salariés, il est possible d’imaginer que cette réforme n’aura pas d’impact sur le volume d’heures supplémentaires effectuées dans ces PME. En revanche, pour les autres entreprises, l’incitation à un plus fort recours disparaissant, on peut supposer que ce volume diminuera en revenant vers un niveau plus compatible avec le cycle conjoncturel.

Nous faisons alors l’hypothèse qu’à compter de 2013, le volume d’heures supplémentaires dans les entreprises de moins de 20 salariés se maintiendrait à plus de 310 millions. Dans les autres entreprises, nous faisons l’hypothèse que le volume annuel d’heures supplémentaires en 2013 reviendrait vers celui enregistré fin 2009-début 2010, à savoir proche de 380 millions (graphique 2).

Au total, selon nos hypothèses, la baisse des heures supplémentaires pourrait être de 1,2 % en 2012 et de 5,9 % en 2013, soit une baisse de 7,1 % par rapport au niveau observé aujourd’hui.

b) Quel impact sur l’emploi et les finances publiques à l’horizon 2014 ?

Sur la période 2011-2014, si la baisse des heures supplémentaires prévue se réalise, cette réforme permettra la création ou la sauvegarde de 17 900 emplois. Ce résultat est la conséquence de deux effets de sens inverse (tableau 4) : le premier est négatif et est lié à la baisse du pouvoir d’achat des salariés bénéficiant des heures supplémentaires (-29 000 emplois) ; le second est positif et résulte de la réduction du recours aux heures supplémentaires dans les entreprises de plus de 20 salariés (46 900 emplois).

Sur la même période, la suppression de la défiscalisation permettra d’économiser 2,6 milliards d’euros d’exonération de charges sociales et permettra d’engranger un surplus de 1,3 milliard d’euros d’impôt sur le revenu. Par ailleurs, les créations d’emplois supplémentaires entraîneront un supplément de recettes fiscales et une économie de dépenses sociales de 1,3 milliard d’euros. Au total, une fois le bouclage macroéconomique réalisé, cette réforme permettra de réduire le déficit des APU de 5,2 milliards, soit 0,26 point de PIB en 2014 (tableau 4).

Références bibliographiques

Heyer É. (2011a), « Faut-il revenir sur la défiscalisation des heures supplémentaires ? Simulation et première évaluation de ce dispositif», Note de l’OFCE, n° 2, septembre.

Heyer É. (2011b), « The effectiveness of economic policy and position in the cycle: the case of tax reductions on overtime in France », Oxford Review of Economic Policy, vol. 27, n° 2, summer.

Sévin É. et Y. Zhang (2012), « Les heures supplémentaires au premier trimestre 2012 », Acoss Stat, n°150, mai.


[1] Rappelons toutefois que près de 70 % des salariés travaillent dans des entreprises de plus de 20 salariés.

[2] Rappelons que cette mesure introduit une réduction forfaitaire des charges patronales de 1,5 euro  par heure supplémentaire effectuée dans les entreprises de moins de vingt salariés et de 0,5 euro dans les entreprises de plus de vingt salariés. Pour plus de détails sur la mesure, se référer à Heyer (2011b).




Le coup de pouce au smic va-t-il détruire des emplois ?

par Eric Heyer et Mathieu Plane

Le 26 juin, le gouvernement Ayrault a annoncé une hausse du SMIC de 2 %. Cette augmentation discrétionnaire, qui a pris effet au 1er juillet 2012, n’est pas un coup de pouce permanent de 2 % car il intègre en partie un à-valoir sur la prochaine hausse légale prévue le 1er janvier 2013. Avec une revalorisation automatique prévue à 1,4 % en janvier 2013, le coup de pouce permanent serait donc de 0,6 %. Dans une note détaillée de l’OFCE (n°22 du 17 juillet 2012), nous montrons qu’un coup de pouce permanent de 0,6 % détruirait finalement très peu d’emplois (1 400 postes) mais augmenterait légèrement le déficit public de 0,01 point de PIB.

Le financement de cette mesure entraînerait des pertes d’emplois supplémentaires : selon le mode de financement retenu, les pertes d’emplois seraient finalement comprises entre 1 900 et 2 800 postes (tableau 1).

Des effets complexes sur le coût du travail…

Le SMIC, à l’instar des autres salaires, a un statut ambivalent : il peut être considéré comme une variable de demande si l’on se place du côté des salariés mais constitue une variable d’offre pour l’entrepreneur. Par conséquent, une hausse du SMIC correspond à un choc de demande favorable pour les salariés et à un choc d’offre défavorable pour les chefs d’entreprise hors effet allègement de charges.

Dans un contexte de faible diffusion[1], ces deux effets de sens inverse ne se compensent pas :

  1. l’aspect « soutien de la demande » se limite aux seuls salariés proches du SMIC. Ceux-ci ont certes une propension marginale à consommer forte – le taux d’épargne n’augmente pas avec cette mesure – mais le nombre restreint de bénéficiaires limite les effets sur la consommation des ménages au niveau macroéconomique. Le supplément de revenu lié à cette augmentation du SMIC génèrerait 6 900 emplois ;
  2. L’aspect « hausse du coût du travail » est fortement destructeur d’emplois : l’élasticité de l’emploi au coût du travail étant décroissante[2] avec le salaire, la faible diffusion du SMIC sur les autres salaires augmentera peu le coût du travail au niveau macroéconomique mais, étant concentrée sur les bas salaires, l’élasticité moyenne sera forte (0,9). La hausse du coût du travail liée à la hausse du SMIC détruirait 26 000 emplois

Au total, selon notre simulation, une hausse de 0,6 % du SMIC, hors effet liés aux baisses de charges, entraînerait une destruction de 8 700 emplois au cours de la première année (tableau 2).  Ce résultat, intermédiaire, se situe dans la fourchette basse de celui observé par Francis Kramartz qui l’évalue entre 15 000 et 25 000 postes détruits pour une hausse du SMIC de 1% (soit entre 9 000 et 15 000 pour un coup de pouce de 0,6 %).

Mais cette estimation ne prend pas en compte les baisses de charges supplémentaires liées à la hausse du SMIC et à sa diffusion sur les autres salaires. Les salaires n’étant pas indexés sur le SMIC, un coup de pouce ne se répercute donc pas automatiquement sur la grille des salaires. Des travaux récents réalisés sur le sujet[3] et dont une synthèse est présentée dans le rapport du groupe d’experts sur le SMIC de décembre 2011, concluent à une faible diffusion du SMIC. Selon notre estimation, une hausse de 1 % du SMIC entraînerait une hausse moyenne des salaires de l’ensemble du secteur marchand de seulement 0,1 %. Or, les allègements de charges liés à la hausse du SMIC sont d’autant plus forts que la diffusion est faible. Plus la baisse du salaire relatif (en pourcentage du SMIC) est importante, plus le taux moyen d’allègement de charges augmente en raison du profil dégressif des allègements de cotisations sociales patronales.

Une augmentation du SMIC de 0,6 % entraîne ex ante une hausse du coût du travail de 0,4 % pour le 1er décile de salaire mais une baisse de 0,2 % pour le 2e décile et une diminution de 0,1 % pour les salaires allant du 3e au 5e décile. Au-delà du 6e décile, les effets sur le coût du travail sont nuls. Par ce mécanisme, pour les salaires compris entre le 2e et le 5e décile, l’augmentation des allégements de charges serait supérieure au supplément de salaires versé par l’employeur, ce qui entraînerait une baisse du coût du travail pour ces catégories.

Au final, la baisse du coût du travail liée au supplément d’allègements de charges permettrait la création de 7 300 emplois.  Au total, comme le résume le tableau 2, à l’horizon d’1 an, l’effet d’une hausse de 0,6 % du SMIC détruirait 1 400 emplois et dégraderait de 0,012 point de PIB les finances publiques.

 

…avec des effets différenciés selon la pyramide des salaires

Une hausse de 0,6 % du SMIC conduirait à détruire 4 700 emplois au niveau du SMIC mais à en créer 2 000 pour les salaires du 2e décile, 900 pour ceux du 3e décile et environ 500 au-delà.


[1] L’effet de diffusion rend compte de l’impact d’une hausse du SMIC sur la grille des salaires. Une faible diffusion a pour conséquence un écrasement de l’échelle des salaires.

[2] Selon la DGTPE, l’élasticité de l’emploi au coût du travail (DGTPE, annexes Rapport Besson, 2007) passe de 1,2 au niveau du SMIC à 0,3 pour les salaires à 1,4 SMIC puis est constante au-delà.

[3] Aeberhardt R, P. Givord et C. Marbot (2012), « Spillover effect of the minimum wage in France: An unconditional quantile regression approach », Document de travail de l’INSEE, n° G 2012 / 07 et Goarant C, L. Muller (2012), « Les effets des hausses du Smic sur les salaires mensuels dans les entreprises de 10 salariés ou plus de 2006 à 2009 », document de travail de la DARES .




Obama 2012 : “Yes, we care!”

par Frédéric Gannon (Université du Havre) et Vincent Touzé

Le jeudi 28 juin 2012, la Cour suprême des Etats-Unis (US Supreme Court) a rendu son verdict. Le principe d’obligation individuelle d’adhésion à une assurance santé sous peine de pénalité financière, volet central de la réforme[1] du système d’assurance santé de 2010 (Affordable Care Act[2]), a été jugé constitutionnel. Cette réforme a été adoptée dans un contexte politique difficile. Elle comprend de multiples mesures qui visent à réduire considérablement le nombre d’Américains sans couverture santé. Elle augmentera les dépenses fédérales, mais de nouvelles recettes et des réductions de dépenses permettront de réduire le déficit public.

De septembre 2009 à mars 2010, la rédaction puis le vote de la loi a été un long processus dont l’issue politique était incertaine en raison d’une majorité insuffisante au Sénat[3]. La loi, votée par la Chambre des Représentants et signée le 23 mars 2010 par le Président Obama, étant différente de celle votée au Sénat, des amendements furent introduits dans une loi de réconciliation budgétaire votée le 30 mars. Des opposants à cette réforme (26 Etats, de nombreux citoyens ainsi que la National Federation of Independent Business) ont alors décidé de porter le combat devant la Cour suprême des Etats-Unis. Leurs espoirs reposaient principalement sur de possibles inconstitutionnalités de la loi liées à l’obligation d’adhésion à une assurance santé ainsi qu’à l’extension du programme d’assurance publique Medicaid.

Le jugement favorable de la Cour suprême a été obtenu avec une courte majorité : 5 juges ont voté pour[4] et 4 contre[5]. La sensibilité politique des juges ne semble pas avoir joué contre la loi puisque le juge en chef, John G. Roberts, nommé par George W. Bush, a donné son approbation. La majorité de la Cour suprême considère la pénalité financière en cas de non adhésion comme une taxe[6] et qu’elle n’a pas à se prononcer sur le bien-fondé de cette taxe. Elle renvoie cette responsabilité au parlement (chambre haute et basse) qui, en l’occurrence, a déjà débattu et adopté la loi. Par voie de conséquence, ce point de la loi est valide.

Selon la Cour suprême, la pénalisation financière de la non-adhésion à une assurance santé peut être perçue comme une obligation individuelle d’achat[7], et la loi sur le commerce (Commerce Clause) « ne donne pas ce pouvoir au Congrès ». Mais, d’un point de vue fonctionnel, cette pénalité peut être assimilée à une taxe. Dans ce cas, le Congrès a toute latitude pour « établir et collecter l’impôt » (Taxing Clause). D’où le verdict favorable de la Cour suprême. En revanche, elle juge que « l’extension de Medicaid viole la Constitution », car la « menace de perte de plus de 10 pourcent du budget global d’un État est une dragonnade économique qui laisse les États sans autre choix que de consentir à l’extension de Medicaid ».

La décision de la Cour suprême est une victoire majeure pour le Président Barack Obama, pour qui cette réforme en faveur d’un accès plus égalitaire au système d’assurance santé a été un des fers de lance de sa campagne électorale de 2008. Auparavant, son prédécesseur démocrate à la Maison Blanche, Bill Clinton, avait dû renoncer à une réforme similaire en raison d’une opposition farouche des Républicains et une division grandissante au sein des Démocrates. Afin de se donner toutes les chances de succès, Barack Obama aurait été plus stratégique tant sur la programmation de la réforme que sur la forme de sa présentation[8]. Pour y arriver, il a aussi constitué une équipe composée de spécialistes chevronnés[9].

Cette loi est une véritable révolution culturelle dans un pays où le système d’assurance santé exclut près de 50 millions d’individus. Outre l’obligation individuelle d’adhésion pour les Américains, les principales mesures prévues sont :

  • la création de « marchés » de contrats d’assurance où chacun peut acheter une couverture santé avec une subvention publique qui dépend du niveau de revenu ;
  • une extension du programme public d’assurance santé Medicaid[10] (couverture publique pour tous les ménages dont le revenu est inférieur à 133 % d’un plafond fédéral de pauvreté) et pénalisation financière des Etats qui ne mettent pas en œuvre cette extension (suppression de l’intégralité des financements fédéraux sur le programme Medicaid) ;
  • une obligation pour les employeurs d’offrir une assurance santé à leurs salariés (application de pénalité financière si l’obligation n’est pas respectée avec des exceptions pour les petites entreprises) ;
  • des nouvelles réglementations sur le marché de l’assurance privée (obligation de couverture de tous les individus sans critère sur l’état de santé).

A partir de 2014, des millions de ménages américains non assurés doivent bénéficier de l’extension de Medicaid, que la Cour suprême a jugé inconstitutionnelle, ce qui soulève donc de nombreuses interrogations[11]. Combien d’Etats seront-ils tentés de ne pas étendre Medicaid ? Quelles seront les conséquences pour les ménages pauvres[12] qui devaient bénéficier de cette extension ? Auront-ils les moyens de s’offrir des assurances privées subventionnées[13] ? Seront-ils sanctionnés financièrement s’ils ne s’assurent pas ? Seront-ils encouragés à migrer vers des Etats ayant adopté l’extension[14] ? Il est raisonnable d’espérer que peu d’Etats[15] boycotteront l’extension de Medicaid car les autres mesures incitatives prévues par la loi restent fortes (prise en charge fédérale à 100% du surcoût de 2014 à 2016, puis 95% après 2017 puis 90% après 2020 ; perte de certains financements fédéraux en l’absence d’extension). Toutefois des aménagements de la loi seront vraisemblablement utiles si les gouvernants veulent éviter l’exclusion de personnes trop pauvres pour s’offrir une assurance privée subventionnée.

La mise en place de la loi sera progressive et les différentes mesures doivent s’appliquer à partir de 2014. D’après le dernier rapport du Congressional Budget Office (2012), les dépenses publiques annuelles (extension de Medicaid et subventions d’assurance privée) devraient augmenter d’environ 265 milliards de dollars par an[16] à l’horizon 2022 (le coût total estimé entre 2012 et 2022 est de 1 762 milliards de dollars) et le nombre de non assurés pourrait diminuer d’environ 33 millions[17]. La réforme prévoit également une hausse des recettes fiscales (hausse des prélèvements obligatoires et nouvelles taxes) ainsi qu’une baisse des dépenses fédérales (principalement des substitutions entre le programme Medicaid étendu et l’ancien programme), ce qui a pour effet de compenser amplement le coût de la réforme. Dans un précédent rapport de mars 2011, le CBO estime à 210 milliards de dollars la baisse du déficit cumulé sur la période 2012-2021. Au nom de la sacrosainte liberté, l’opposition à l’obligation individuelle d’adhésion reste encore vigoureuse[18], mais avec le temps, on peut espérer que ce principe d’obligation soit, avant tout, perçu comme un droit fondamental qui protège chaque citoyen.


[1] Pour une présentation du système d’assurance santé et de la réforme, voir Christine Rifflart et   Vincent Touzé, « La réforme du système d’assurance santé américain »,   Lettre de l’OFCE,  n°321, 21 juin 2010. Voir également la fiche de Wikipedia sur le sujet.

[2] Cette législation réunit les deux lois Patient Protection and Affordable Care Act et Health Care and Education Reconciliation Act (loi de réconciliation budgétaire).

[3] ”Health Care Reform: Recent Developments”, The New-York Times, June 29, 2012.

[4] Stephen Breyer, Elena Kagan, Ruth Bader Ginsburg, Sonia Sotomayor ainsi que le juge en chef John G. Roberts.

[5] Clarence Thomas, Anthony Kennedy, Antonin Scalia et Samuel Alito.

[6] Floyd Norris, “Justices Allow the Term ‘Tax’ to Embrace ‘Penalty’”, The New-York Times, June 28, 2012.

[7] La position juridique de l’administration Obama a consisté à soutenir que la portion de l’obligation de souscription d’assurance assimilable à une taxe est la pénalité acquittée par ceux qui ne respectent pas cette obligation. Cette pénalité fonctionne comme une régulation : elle est conçue dans une logique d’incitation et non dans une optique de recette fiscale nouvelle. Le juge Jeffrey Sutton a expliqué que si le gouvernement avait clairement spécifié que l’obligation de souscription était une taxe, elle aurait été plus facile à justifier sur le plan de sa constitutionnalité. La plupart des abattements fiscaux ou rabais d’impôts sont des incitations positives (prime à l’acquisition de véhicules moins polluants par exemple). L’obligation d’assurance sur la santé joue au contraire comme une incitation négative en infligeant une pénalité/amende aux agents décidant de ne pas souscrire d’assurance. Mis face à cette alternative, ils choisissent en toute rationalité – selon l’optique pigouvienne – l’option qu’ils jugent la plus profitable ou la moins coûteuse.

[8] Ezra Klein, “Barack Obama, Bill Clinton and Health-Care Reform”, The Washington Post, July 26, 2009.

[9] Robert Pear, “Obama Health Team Turns to Carrying Out Law”, The New-York Times, April 18, 2010.

[10] Medicaid est un programme public d’assurance santé pour les ménages les plus pauvres (près de 35 millions de bénéficiaires). Les conditions pour en bénéficier sont nombreuses (revenu, âge, degré d’invalidité, état de santé, etc.), ce qui conduit à écarter une part non négligeable de la population la plus pauvre. Ainsi, plus de 20 millions de personnes vivant en dessous du seuil fédéral de pauvreté n’ont pas accès à Medicaid. En revanche, l’autre programme public d’assurance santé réservé aux personnes âgées de 65 ans et plus, Medicare, couvre largement ce groupe d’âge.

[11] Urban Institute-Health Policy Center, “Supreme Court Decision on the Affordable Care Act: What it Means for Medicaid”, Policy Briefs, June 28, 2012.

[12] Genevieve M. Kenney, Lisa Dubay, Stephen Zuckerman et Michael Huntress, “Making the Medicaid Expansion an ACA Option: How Many Low-Income Americans Could Remain Uninsured?”, Policy Briefs, Urban Institute – Health Policy Center, June 29, 2012.

[13] En l’absence d’extension de Medicaid, leur dépense d’assurance santé serait plafonnée à 2% de leur revenu.

[14] Ce concept de vote avec les pieds a été mis en avant dans l’article de Charles M. Tiebout (1956) : “A Pure Theory of Local Expenditures”, The Journal of Political Economy, 1956, vol. 64/5, pp. 416-424.

[15] Brett Norman, ”Lew: ‘Vast majority’ of states will expand Medicaid”, Politico, 1st July 2012.

[16] En 2022, 136 milliards de dollars financeraient l’assurance santé publique de 17 millions de pauvres (extension de Medicaid) et 127 milliards de dollars subventionneraient l’achat d’assurances privées de 18 millions de personnes.

[17] En 2022, les 27 millions de non-assurés restants seraient composés de migrants illégaux (non-éligibles aux programmes publics et aux assurances privées), d’éligibles à Medicaid qui ne souhaitent pas s’assurer ainsi que des personnes non éligibles à Medicaid qui ne souhaitent également pas s’assurer.

[18] Susan Stamper Brown, “Time To Clean Up The Obamacare Mess”, The Western Center for Journalims, June 26, 2012.




Petits transferts entre familles

par Guillaume Allègre

Une des premières mesures prises par le nouveau gouvernement a été d’augmenter de 25 % l’Allocation de rentrée scolaire (ARS) dès la rentrée 2012. Cette mesure figurait dans les 60 engagements du candidat Hollande avec l’abaissement du plafonnement de l’avantage lié au quotient familial (QF) (engagement 16)[1] qui devrait être voté en juillet 2012. Ces deux instruments de la politique familiale (ARS, QF) ont des logiques et des effets très différents. Alors que l’ARS concerne les ménages modestes du fait d’une mise sous conditions de ressources, le plafond du quotient familial n’affecte que les ménages les plus aisés. Le financement de l’augmentation de l’ARS par une baisse du plafonnement du QF doit permettre de maintenir les ressources de la politique familiale. Cette réforme implique un transfert d’environ 400 millions d’euros des familles dont le niveau de vie se situe dans le décile le plus élevé vers les familles les plus modestes, celles dont le niveau de vie se situe dans les quatre premiers déciles de niveau de vie. 

L’ARS est une prestation sociale, sous condition de ressources, versée annuellement au moment de la rentrée scolaire aux familles ayant à charge un ou plusieurs enfants scolarisés âgés de 6 à 18 ans. Créée en 1974, elle n’était alors versée qu’aux familles bénéficiaires d’une autre prestation familiale (allocation familiale à partir du deuxième enfant ou prestation sous condition de ressources). Revalorisée en 1993, elle a ensuite été étendue, à partir de 1999, aux familles avec un seul enfant ne bénéficiant pas d’autre prestation. En 2010, la mesure bénéficiait à 2,8 millions de ménages[2] (dont 210 000 familles sans autre prestation CNAF) pour un coût total de 1,49 milliard d’euros. Les familles bénéficiaires recevaient en moyenne 520 euros par an. Pour la rentrée 2012, pour être éligible, les ressources de l’année 2010 ne doivent pas dépasser 23 200 euros  pour les familles ayant un enfant à charge, auxquels il faut ajouter 5 300 euros par enfant supplémentaire. Le montant de la prestation dépend de l’âge des enfants scolarisés. En 2011, il était de 285, 300 et 311 euros respectivement par enfant de 6 à 10 ans, 11 à 14 ans et 15 à 18 ans[3].

A la suite de l’élection présidentielle, pour 2012, ces montants ont été fixés par décret respectivement à 356, 375 et 388 euros[4]. Le gain de la revalorisation pour un couple avec deux enfants de 6 et 11 ans est de 141 euros par an si son revenu est inférieur à 28 500 euros. Pour un couple avec trois enfants de 6, 11 et 15 ans, le gain est de 215 euros. La revalorisation de 25 % de l’allocation représente une dépense supplémentaire de l’Etat de 372 millions d’euros.

Le système du quotient familial de l’impôt sur le revenu permet de tenir compte de la taille des foyers fiscaux, et notamment de la présence ou non d’enfants dans le calcul de l’impôt à payer. Le quotient familial, mesure de la capacité contributive, est le ratio entre le revenu net imposable et le nombre de parts fiscales du foyer. L’administration fiscale applique à ce quotient le barème de l’impôt puis re-multiplie par le nombre de parts fiscales afin de déterminer le montant d’impôt dû, de telle sorte que deux foyers ayant le même quotient sont confrontés au même taux d’imposition[5]. Un couple avec 2 enfants (trois parts) ayant un revenu imposable de 60 000 euros est soumis au même taux d’impôt sur son revenu imposable qu’un couple sans enfant (2 parts) ayant un revenu de 40 000 euros : chacun de ces foyers fiscaux a un quotient familial égal à 20 000 euros ; ils sont ainsi considérés par l’administration fiscale comme ayant la même faculté contributive. Le système de quotient familial ne procure aucun gain lorsque l’impôt est proportionnel. Plus l’impôt est progressif, plus le gain procuré par le système de quotient familial est élevé. L’administration fiscale plafonne ce gain à 2 336 euros par demi-part, soit un gain maximum de 4 672 euros (ou 389 euros mensuels) par enfant à partir du troisième enfant et pour le premier enfant des parents isolés. Le plafonnement concerne des ménages ayant des revenus relativement élevés : 6 600 euros net par mois pour un couple avec deux enfants, 8 500 euros avec trois. Selon la DGFIP, 770 000 foyers (soit 2,1 % des foyers fiscaux) étaient concernés par le plafonnement en 2008, soit un gain pour l’Etat de 1,2 milliard d’euros, ce qui représente en moyenne 1 550 euros par foyer fiscal plafonné.

Selon le programme présidentiel, le plafonnement du gain lié au quotient familial doit être abaissé dans la Loi de finances rectificative à 2 000 euros par demi-part supplémentaire. La perte annuelle maximale pour les foyers fiscaux effectivement plafonnés serait donc de 336 euros par demi-part, soit 672 euros pour un couple avec deux enfants (trois parts fiscales) et 1 344 euros avec trois (quatre parts fiscales). Selon nos calculs, l’économie pour l’Etat serait de 430 millions d’euros (France métropolitaine) et le nombre de foyers concernés  900 000, soit un coût moyen de 488 euros par foyer.

Le graphique représente les transferts engendrés par les deux réformes par décile de niveau de vie. Du fait de sa mise sous conditions de ressources, la revalorisation de l’ARS bénéficie principalement aux ménages ayant des enfants appartenant aux 4 premiers déciles de niveau de vie, tandis que l’abaissement du plafond du quotient familial concerne les ménages du décile le plus élevé. En termes de redistribution verticale, la réforme est assez bien ciblée, même si les montants en jeu sont relativement faibles. Le gain pour l’Etat serait marginal.  L’effet sur la croissance devrait être positif, du fait d’une plus grande propension à épargner des ménages les plus aisés, mais mineur, de part la faiblesse des sommes en jeu et le montant des économies qui est légèrement supérieur à celui des dépenses supplémentaires.

 

De fait, cette réforme est peu controversée. Le principe du plafonnement de l’avantage fiscal du quotient familial est largement accepté (voir Sterdyniak) et sa justification est robuste : à partir d’un certain niveau de revenus, son augmentation ne sert plus à la consommation des enfants. L’ARS a plusieurs avantages : son usage est principalement lié aux dépenses de rentrée scolaire, elle permet de verser une allocation aux familles d’un enfant, elle est bien ciblée sur les ménages les moins aisés.

D’autres réformes, allant plus loin dans ce sens, pourraient être envisagées : par exemple, le plafonnement par enfant de l’avantage fiscal (et non plus par demi-part) ou, mieux, la suppression des demi-parts supplémentaires à partir du troisième enfant, ce qui permettrait de financer, en partie, la mise en place d’un complément familial sous conditions de ressources dès le premier enfant. En effet, le système de quotient familial semble trop généreux à partir du troisième enfant (voir Allègre, 2012), et le complément familial, prestation familiale sous conditions de ressources, ne concerne aujourd’hui que les familles de trois enfants et plus, souvent les moins aisées. Un élargissement du dispositif qui bénéficierait également aux familles nombreuses et  permettrait d’inclure les autres familles les moins aisées dans le dispositif.


[1] « Je maintiendrai toutes les ressources affectées à la politique familiale. J’augmenterai de 25 % l’allocation de rentrée scolaire dès la prochaine rentrée. Je rendrai le quotient familial plus juste en baissant le plafond pour les ménages les plus aisés, ce qui concernera moins de 5 % des foyers fiscaux. »

[2] Métropole et Dom.

[3] Les familles ayant des enfants de 0 à 3 ans peuvent bénéficier, sous conditions de ressources, de l’allocation de base de la prestation d’accueil du jeune enfant (Paje) afin de faire face aux dépenses spécifiques liées à la jeune enfance. En dehors des aides liées à la garde des enfants, il existe ainsi un vide entre 3 et 6 ans, tranche d’âge pour laquelle les dépenses sont supposées moins importantes.

[4] En fait, la revalorisation initiale devait être de 1 %, le « coup de pouce » n’est donc que de 24 %.

[5] Le système de parts attribue 1 part à une personne seule, 1 part au conjoint éventuel, 1/2 part respectivement au premier et deuxième enfant, 1 part aux enfants suivants, et 1/2 part supplémentaire au premier enfant des parents isolés.

 




Financement du supérieur : faut-il faire payer les étudiants ?

par Guillaume Allègre et Xavier Timbeau

Faut-il faire financer par les étudiants, sous la forme d’une hausse des droits d’inscription qui pourrait être couplée ou non à des prêts, une partie plus importante du coût de l’enseignement supérieur ? Le caractère anti-redistributif du financement par l’impôt de l’enseignement supérieur est souvent mis en avant. Nous montrons dans un document de travail que dans une perspective de cycle de vie l’impôt proportionnel n’est pas anti-redistributif.

Si la hausse des droits de scolarité dans le supérieur n’est pas à l’ordre du jour politique en France, elle fait l’objet d’une bataille intense, non seulement au Québec, mais aussi en Espagne et en Grande Bretagne, où des manifestations étudiantes ont éclaté fin 2010. En France, la hausse des droits d’inscription à l’université est régulièrement proposée dans des rapports : récemment (2011) dans une note de l’Institut de l’Entreprise sur le rôle des entreprises dans le financement du supérieur, Pierre-André Chiappori propose de « lever le tabou des frais d’inscription ». Dans une contribution à Terra Nova publiée en 2011, Yves Lichtenberger et Alexandre Aïdara proposent une hausse de l’ordre de 1 000 euros annuels des droits d’inscription à l’université. Paradoxalement, les auteurs proposent également la création d’une allocation d’étude utilisable tout au long de la vie. Les auteurs entendent répondre à deux logiques économiques contradictoires. D’une part, l’allocation d’étude permet d’élever le niveau général de formation, facteur d’innovation et de croissance, d’autre part de lutter contre l’auto-sélection sociale dans l’enseignement supérieur :

Dans les pays qui l’ont adoptée [l’allocation d’étude], les couches sociales défavorisées ont pu avoir l’opportunité d’accomplir de longues études alors que leur origine sociale les prédestinait à des filières courtes permettant d’accéder rapidement au salariat. C’est donc une condition importante de l’élévation générale du niveau d’études et de qualification des jeunes, qui est une préoccupation centrale de ce rapport. (Lichtenberger et Aïdara, p.82)

Mais d’autre part, l’enseignement bénéficie aux plus favorisés et sa gratuité serait ainsi anti-redistributive :

La quasi-gratuité de l’enseignement supérieur public conduit d’abord à un transfert de ressources (le coût public des études) en direction des jeunes qui font les études les plus longues. Il s’agit massivement des jeunes issus des milieux les plus favorisés. Ce transfert se traduit in fine en un rendement privé pour les bénéficiaires : les salaires, puis les pensions plus élevés et dont les plus qualifiés bénéficient tout au long de leur vie. (…) En l’état, la gratuité n’a aucune vertu redistributive et aggrave même les inégalités. (Lichtenberger et Aïdara, p.84)

De fait, même s’il n’est pas le seul, le caractère anti-redistributif de la gratuité de l’enseignement supérieur est un des principaux arguments des défenseurs d’une hausse des droits de scolarité. Or, cet argument s’appuie sur une vision statique et familialiste de la redistribution. Nous adoptons au contraire une perspective de cycle de vie. Comme le souligne le deuxième extrait ci-dessus, les bénéficiaires des dépenses d’éducation profitent d’un rendement privé moyen important : ils auront des salaires et des pensions plus élevés tout au long de leur vie. Même en supposant que l’impôt (sur le revenu) est proportionnel au revenu (ce qui n’est pas le cas : en réalité, il est progressif), ils paieront, en absolu, un impôt beaucoup plus élevé que les individus ayant suivi des études plus courtes. Surtout, l’impôt permet de faire financer l’enseignement par les individus qui bénéficient réellement d’un rendement privé important, et en proportion de ce rendement. Les personnes qui subissent les discriminations sur le marché du travail, ou qui, parce qu’elles ont été orientées dans des filières moins rentables, bénéficient de faibles rendements de l’éducation remboursent à la société par leur impôt un montant plus faible que celles qui ne les ont pas subies. Le financement par l’impôt sur le revenu conduit à faire contribuer les personnes ayant des revenus élevés, même lorsqu’elles n’ont pas suivi de longues études. L’injustice serait alors dans le transfert entre les personnes bénéficiant de hauts revenus qui n’ont pas fait de longues études et celles qui en ont fait. Mais si l’éducation est caractérisée par une part importante de rendements sociaux, de part ses effets sur la croissance (voir Aghion et Cohen), alors les personnes à hauts revenus sont les bénéficiaires des dépenses d’éducation, qu’elles aient fait des études ou non (les entrepreneurs autodidactes bénéficient ainsi de la disponibilité d’une main-d’œuvre qualifiée).

En adoptant une perspective de cycle de vie, nous montrons dans un document de travail que financer les dépenses d’éducation non obligatoires (au-delà de 16 ans) par un impôt proportionnel constitue un transfert net des plus hauts revenus sur l’ensemble de la carrière professionnelle, vers les plus faibles revenus sur l’ensemble de la carrière. Dans une perspective de cycle de vie, la gratuité de l’éducation non-obligatoire financée par l’impôt ne bénéficie pas aux individus ayant les parents les plus aisés (le transfert des individus provenant des ménages les plus aisés vers ceux des ménages les moins aisés n’est pas significativement différent de zéro). Si les individus issus des ménages les plus pauvres réagissent à l’augmentation des frais de scolarité en réduisant leur investissement éducatif, même lorsqu’elle est financée par des prêts, alors, il ne fait guère de doute qu’ils seront les premières victimes de ce type de réforme. Les défenseurs des hausses des frais de scolarité plaident, en général, pour de faibles hausses des droits d’inscription ainsi que des exonérations sous condition de ressources parentales. Mais, l’histoire récente, en Australie, au Royaume-Uni ou au Canada, montre qu’une fois les droits d’inscription introduits, il est difficile d’empêcher les gouvernements en quête de nouvelles ressources d’augmenter les droits et de réduire les seuils d’exonération.

En matière d’enseignement supérieur, l’injustice première est le moindre accès des individus issus de milieux modestes. Le plus sûr moyen d’assurer l’équité devant l’éducation reste de la financer par l’impôt sur le revenu et de réformer l’enseignement pour qu’il vise la réussite scolaire de tous plutôt que la sélection.




L’union bancaire : une solution à la crise de l’euro ?

par Maylis Avaro et Henri Sterdyniak

Le sommet européen des 28 et 29 juin marque une nouvelle tentative des instances européennes et des pays membres pour sortir de la crise de la zone euro. Un prétendu Pacte de croissance a été adopté mais il comprend pour l’essentiel des engagements des pays membres à entreprendre des réformes structurelles ; les fonds dégagés d’un montant limité (120 milliards sur plusieurs années) étaient déjà prévus pour la plupart. En revanche, la stratégie consistant à imposer des politiques budgétaires restrictives n’est pas remise en cause et la France s’est engagée à ratifier le Pacte budgétaire. Les interventions du FESF et du MES seront moins rigides ; elles pourront aider, sans conditions supplémentaires, des pays que les marchés financiers refusent de financer alors que ceux-ci respectent leurs objectifs en termes de politique budgétaire ou de réformes structurelles. Mais la garantie mutuelle des dettes publiques et les euro-obligations ont été repoussées. Le sommet a lancé un nouveau projet : l’union bancaire. Est-ce un complément obligé de l’Union monétaire ou est-ce une nouvelle fuite en avant ?

La crise actuelle est en grande partie une crise bancaire. Les banques européennes avaient nourri les bulles financières et les bulles immobilières (particulièrement en Espagne et en Irlande) ; elles avaient investi dans des fonds de placement ou de couverture aux Etats-Unis. Elles ont connu des pertes importantes avec la crise de 2007-2010 ; les Etats ont dû venir à leur secours, ce qui a été particulièrement coûteux pour l’Allemagne, le Royaume-Uni, l’Espagne et surtout l’Irlande. La crise des dettes souveraines de la zone euro a encore accentué leurs difficultés : les dettes publiques qu’elles détenaient sont devenues des actifs risqués. La question de la régulation des banques est posée au niveau international (nouvelles normes de Bâle III), aux Etats-Unis (règle Volcker et loi Dodd-Frank) comme en Grande-Bretagne (rapport Vickers).

En juin 2012, les doutes sur la solidité des banques européennes ont une nouvelle fois resurgi. Les mesures prises depuis 2008 pour stabiliser le système financier sont apparues insuffisantes. Lorsque Bankia, la quatrièmebanque d’Espagne a annoncé qu’elle demandait une aide à l’Etat de 19 milliards d’euros, l’inquiétude sur les bilans des banques espagnoles s’est fortement accentuée. Le taux de créances douteuses des banques espagnoles, dont les bilans ont été fragilisés par le krach immobilier, est passé de 3,3% fin 2008 à 8,7% en juin 2012[1]. Par ailleurs, de nombreux Grecs[2] commencent à réduire leurs dépôts dans les banques de leur pays craignant une sortie de la zone euro.

 

En réponse à ces risques, le projet d’une Union bancaire européenne, relancé par Mario Monti, qui proposait d’étendre des projets en préparation à la DG Marché Unique de la Commission européenne, est actuellement mis en avant par la Commission, la BCE, et plusieurs Etats membres (Italie, France, Espagne,…) En sens inverse, l’Allemagne estime qu’une union bancaire serait impossible sans union budgétaire. Même si Angela Merkel a reconnu[3] qu’il était important d’avoir une supervision européenne avec une autorité bancaire supranationale ayant une meilleure vision d’ensemble, elle a refusé clairement que l’Allemagne prenne le risque de nouveaux transferts ou garanties, sans une intégration budgétaire et politique renforcée[4]. Le sommet de la zone euro du 29 juin a demandé à la Commission de faire prochainement des propositions concernant un mécanisme de surveillance unique pour les banques de la zone euro.

Une telle Union bancaire reposerait sur trois piliers :

– une autorité européenne chargée d’une surveillance centralisée des banques,

– un fonds européen de garantie des dépôts.

– un schéma commun de résolution des crises bancaires.

Chacun de ces piliers fait l’objet de problèmes spécifiques, les uns sont liés à la complexité du fonctionnement de l’UE (l’Union bancaire est-elle limitée à la zone euro ou inclut-elle tous les pays de l’UE ? Est-ce un pas vers plus de fédéralisme ? Comment le concilier avec les prérogatives nationales ?), les autres sont liés à des choix structurels à faire quant au fonctionnement du système bancaire européen.

Le choix de l’institution devant exercer le nouveau pouvoir de supervision bancaire fait débat entre l’Autorité bancaire européenne (EBA) et la BCE. L’EBA, créée en novembre 2010 pour améliorer la surveillance du système bancaire de l’Union européenne, a déjà réalisé deux séries de « stress tests » sur les banques. Le résultat de Bankia pour les tests d’octobre 2011 signalait un déficit de fonds propres de 1,3 milliards. Cinq mois plus tard, ce déficit était de 23 milliards ; la crédibilité de l’EBA en a souffert. De plus, l’EBA, installée à Londres, a autorité sur le système britannique alors que le Royaume-Uni ne veut pas participer à l’Union bancaire. De son coté, la BCE a reçu le soutien de l’Allemagne. L’article 127.6 du Traité sur le fonctionnement de l’Union européenne[5] qui a été cité au sommet de la zone euro du 29 juin pour servir de fondement à la création d’une autorité bancaire européenne permet de donner à la BCE un pouvoir de supervision. Le Vice-président de la BCE, M. Constancio, a déclaré le 12 juin que « la BCE et l’Eurosystème sont préparés » pour recevoir ces pouvoirs ; « il n’y aurait donc pas besoin de créer une nouvelle institution ».

Un contrôle européen suppose une vision commune sur la réglementation du système bancaire. Il faut s’accorder sur des questions cruciales comme par exemple : « Faut-il séparer les banques de dépôts des banques d’affaires ? », « Faut-il interdire aux banques d’intervenir sur les marchés financiers pour leur compte propre ? », « Faut-il favoriser le développement de banques publiques, mutualistes ou régionales ou au contraire celui de de grandes banques internationalisées ? », « Faut-il inciter les banques à faire crédit en priorité aux entreprises et administrations de leur pays d’origine ou au contraire à se diversifier ? », « Les règles macro-prudentielles devront-elles être nationales ou européennes ? ». Selon nous, confier ces questions à la BCE comporte le risque de franchir une nouvelle étape de la dépolitisation de l’Europe.

L’application des directives de cette nouvelle autorité posera des problèmes. Un groupe bancaire en difficulté pourrait être sommé de vendre ses parts d’actions de grands groupes nationaux. Mais le gouvernement national accepterait-il d’exposer un champion national à un contrôle étranger ? Les gouvernements perdraient la capacité d’influencer la distribution de crédit par les banques, ce qui, pour certains, est souhaitable (pas d’interférence politique dans le crédit), mais pour nous est dangereux (les gouvernements perdront un outil de politique industrielle qui pourrait être mobilisé pour financer les PME, les ETI ou pour impulser la transition écologique).

Ainsi, sur le dossier Dexia, l’opposition entre la Commission européenne d’une part et la France, la Belgique et le Luxembourg d’autre part, bloque le plan de démantèlement. Ce plan comporte la reprise des activités de financement des collectivités locales françaises de Dexia Crédit Local par une banque des collectivités, issue d’une coopération entre la Banque postale et la Caisse des dépôts. Au nom de la concurrence loyale, Bruxelles remet en cause les financements aux collectivités locales par une telle banque car Dexia a bénéficié d’aides publiques pour son plan de démantèlement. Cela menace la continuité du financement des collectivités locales françaises et pourrait bloquer les projets de ces dernières et surtout interdire à la France de prévoir des mécanismes spécifiques et sécurisés de financement des collectivités locales par de l’épargne locale.

L’objectif d’un fonds de garantie des dépôts est d’éloigner le risque de retrait massif de dépôts lors de paniques bancaires. Ce fonds pourrait être financé par une contribution des banques européenne garanties par le fonds. Selon Schoenmaker et Gros[6], une union bancaire doit se créer sous un « voile de l’ignorance », c’est-à-dire en ne sachant pas quel pays présente plus de risques : ce n’est pas le cas en Europe aujourd’hui. Les auteurs proposent un fonds de garantie qui n’accepterait, au départ, que les grandes banques transnationales les plus solides, mais ceci accentuerait immédiatement les risques de dislocation de la zone si les déposants se précipitaient sur les banques garanties. Il faut donc que le fonds garantisse toutes les banques européennes. Selon Schoenmaker et Gros, sous l’hypothèse d’un plafond de 100 000 euros garantis, la somme des dépôts couverts serait de 9 700 milliards d’euros. Les auteurs proposent que le fonds dispose d’une réserve permanente représentant 1,5% des dépôts couverts (soit près de 140 milliards d’euros). Mais ceci permettrait seulement de sauver une ou deux grandes banques européennes. La crédibilité d’un tel fonds en cas de crise bancaire et de risque de contagion est donc faible. La garantie des dépôts continuera à dépendre des Etats et du MES, qui devraient venir à l’aide du fonds, éventuellement en demandant des contributions supplémentaires aux banques.

L’autorité en charge de ce fonds n’est pas encore désignée. Si la BCE semble bien placée pour recevoir la surveillance du système bancaire, il est beaucoup plus délicat de lui confier la gestion du fonds de garantie des dépôts. Selon Repullo[7], la garantie des dépôts doit être séparée de la fonction de prêteur en dernier ressort. En effet, dans le cas contraire, la BCE pourrait utiliser sa capacité de création monétaire pour recapitaliser les banques, ce qui gonflerait la masse monétaire. Les objectifs de politique monétaire et de soutien aux banques entreraient en conflit. Il faudrait donc créer une autorité de garantie des dépôts et de résolution des crises, distincte de la BCE, qui aurait obligatoirement un droit de regard sur le comportement des banques, qui s’ajouterait à celui de l’EBA, de la BCE, des régulateurs nationaux. Par contre, la BCE continuerait à jouer son rôle de prêteur en dernier ressort. On voit mal la viabilité d’un système si compliqué.

Le risque d’une sortie d’un pays de la zone euro n’étant pas encore écarté, la question se pose de la garantie qu’offrirait l’Union bancaire face à la conversion en monnaie nationale des dépôts libellés en euros. Une garantie des dépôts en monnaie nationale en cas de sortie de l’euro pénaliserait fortement les clients des banques qui subirait la dévaluation de la monnaie nationale par rapport à l’euro et verraient leur pouvoir d’achat fortement diminuer. Une telle garantie ne résout pas le problème de la fuite des capitaux que connaissent aujourd’hui les pays menacés d’un risque de défaut. C’est donc une garantie des dépôts en euros qui serait nécessaire, mais, dans la situation actuelle, compte-tenu du risque qu’elle doit jouer sous peu pour certains pays, elle est plus difficile à mettre en place.

Ainsi, des hommes politiques allemands, finlandais ou des économistes comme H. W. Sinn dénoncent-ils des risques trop importants pour l’Allemagne et les pays du Nord. Selon plusieurs économistes allemands, aucune autorité supranationale n’a le droit d’imposer de nouvelles charges (ou risques de charge) aux banques allemandes sans l’accord du Parlement, et ces risques de charges doivent être explicitement limités. La Cour constitutionnelle allemande pourrait s’opposer au fonds de garantie des dépôts au nom d’une exposition au risque illimité pour l’Allemagne. Par ailleurs, selon George Osborne, le chancelier de l’Echiquier britannique, une garantie des dépôts bancaires à l’échelle européenne exigerait une modification des traités et l’accord de la Grande-Bretagne.

La Commission européenne a commencé à élaborer un schéma commun de résolution des crises bancaires en adoptant le 6 juin les propositions de Michel Barnier. Ce schéma comporte trois volets. Le premier consiste à améliorer la prévention en obligeant les banques à mettre en place des testaments, c’est-à-dire prévoir des stratégies de redressement et même de démantèlement en cas de crise grave. Le deuxième donne aux autorités bancaires européennes un pouvoir d’intervention pour mettre en œuvre les plans de redressement et changer les dirigeants d’une banque si celle-ci ne respecte pas l’exigence de fonds propres. Le troisième indique qu’en cas de défaillance d’une banque, les pouvoirs publics nationaux devront prendre le contrôle de l’établissement et utiliser des instruments de résolution tels que la cession des activités, la création d’une banque de défaisance (une « bad-bank ») ou le renflouement interne (en obligeant les actionnaires et les créanciers d’apporter de l’argent frais). Si nécessaire, les banques pourront bénéficier de fonds émanant du Mécanisme européen de solidarité (MES). Ainsi, les risques liés aux banques seraient-ils mieux partagés : les actionnaires et les créanciers non couverts par la garantie seraient mis à contribution les premiers, de sorte que les contribuables ne paieraient pas pour rembourser les créanciers des banques insolvables. En contrepartie, les actions et les créances des banques deviendraient beaucoup plus risquées ; la réticence des banques envers le crédit inter-bancaire et l’assèchement du marché interbancaire dû à la crise perdurerait ; les banques auraient des difficultés à émettre des titres et devraient augmenter leur rémunération. Or, les normes de Bâle III imposent aux banques de lier leur distribution de crédits à leurs fonds propres. Le risque est grand de voir la distribution de crédit freinée, ce qui contribuerait à maintenir la zone en récession. Selon les décisions du sommet du 29 juin, l’Espagne pourrait être le premier pays dont les banques seraient recapitalisées directement par le MES. Cependant, ceci n’interviendrait pas avant début 2013 ; les modalités d’une telle procédure et l’impact de l’aide du MES sur la gouvernance des banques recapitalisées doivent encore être précisés. Comme le montre l’exemple de Dexia, les modalités de recomposition d’une banque peuvent avoir de lourdes conséquences pour le pays où elle opérait ; les gouvernements (et les citoyens) sont-ils prêts à perdre tout pouvoir en ce domaine ?

L’Union bancaire permettrait de briser la corrélation entre crise souveraine et crise bancaire. Quand les agences de notations dégradent la note de la dette publique d’un pays, ses titres subissent une perte de valeur et passent dans la catégorie « actifs à risque » et sont moins liquides. Cela accroît le risque global des banques du pays concerné. Si une banque fait face à un risque global trop important et n’arrive plus à satisfaire les exigences de fonds propres de Bâle III, l’Etat doit la recapitaliser, mais pour cela il est obligé de s’endetter, et il augmente ainsi son risque de défaut. Ce lien entre les bilans fragilisés des banques et les dettes publiques génère une spirale dangereuse. Ainsi depuis l’annonce de la faillite de Bankia, les taux espagnols de refinancement à 10 ans ont atteint le seuil critique de 7% alors qu’ils étaient proches de 5,5% depuis un an. Au sein d’une Union bancaire, les banques seraient incitées à se diversifier à l’échelle européenne. Cependant, la crise de 2007-09 a montré les risques de la diversification internationale : de nombreuses banques européennes ont perdu beaucoup d’argent aux Etats-Unis ; les banques étrangères connaissent mal le tissu local, que ce soient les PME, les ETI ou les collectivités locales. La diversification sur critère financier s’accorde mal avec une distribution avisée du crédit. D’ailleurs, depuis la crise, les banques européennes ont tendance à se replier sur leur pays d’origine.

Le projet d’Union bancaire suppose que la solvabilité des banques dépende avant tout de leurs fonds propres, donc de l’appréciation des marchés ; que les liens entre les besoins de financement d’un pays (administrations, entreprises et ménages) et les banques nationales soient coupés. On pourrait préconiser la stratégie inverse : une restructuration du secteur bancaire, où les banques de dépôts devraient se concentrer sur leur cœur de métier (le crédit de proximité, basé sur une expertise fine, aux entreprises, ménages et collectivités locales), où leur solvabilité serait garantie par l’interdiction de procéder à certaines opérations risquées ou spéculatives.

L’Union bancaire poussera-t-elle à la financiarisation ou marquera-t-elle un salutaire retour vers le modèle rhénan ? Imposera-t-elle la séparation des banques de dépôts et des banques d’affaires ? Interdira-t-elle aux banques dont les dépôts seront garantis d’intervenir sur les marchés financiers pour leur compte propre ?

 

 

 

 


[1] Selon la Banque d’Espagne.

[2] Le total des dépôts bancaires des ménages et des entreprises ont baissé de 65 milliards en Grèce depuis 2010. Source : Banque centrale de Grèce.

[3] « La supervision bancaire européenne s’annonce politiquement sensible », Les Echos Finance, jeudi 14 juin 2012, p. 28.

[4] « Les lignes de fracture entre Européens avant le sommet de Bruxelles », AFP Infos Economiques 27 juin 2012 .

[5] Art 127.6 : « Le Conseil, statuant par voie de règlements conformément à une procédure législative spéciale, à l’unanimité, et après consultation du Parlement européen et de la Banque centrale européenne, peut confier à la Banque centrale européenne des missions spécifiques ayant trait aux politiques en matière de contrôle prudentiel des établissements de crédit et autres établissements financiers, à l’exception des entreprises d’assurances ».

[6] D. Schoenmaker et Daniel Gros (2012), A European Deposit Insurance and Resolution Fund, CEPS working document, n° 364, Mai.

[7] Repullo, R. (2000), Who Should Act as Lender of Last Resort? An Incomplete Contracts Model, Journal of Money, Credit, and Banking 32, 580-605.

 




Un coup de pouce au SMIC ou au RSA ?

par Guillaume Allègre

Le gouvernement s’est engagé à un coup de pouce exceptionnel et « raisonné » pour le SMIC puis à une indexation fonction de la croissance et non plus seulement du pouvoir d’achat des ouvriers. Dans Les Echos, Martin Hirsch plaide lui pour un coup de pouce au RSA plutôt qu’au SMIC. Il convient de ne pas opposer travailleurs pauvres, auxquels le RSA s’adresse, et bas salaires : les politiques de redistribution doivent s’attaquer aux inégalités tout au long de l’échelle des revenus et pas seulement à la pauvreté.

En termes de réduction des inégalités, il existe plusieurs stratégies ; une première stratégie vise à réduire les inégalités individuelles de salaires ; une autre vise à réduire les inégalités de niveau de vie entre ménages, niveau auquel les individus sont supposés solidaires. Ces deux stratégies ont, chacune, leur légitimité. Le RSA activité et le SMIC ne sont ainsi pas substituables (voir aussi « le SMIC ou le RSA ? »). Contrairement au RSA, la lutte contre la pauvreté n’est pas l’objectif  du SMIC. Le SMIC a pour objectif « d’assurer aux salariés dont les rémunérations sont les plus faibles une participation au développement économique de la nation ». Un SMIC élevé a pour effet de réduire les inégalités dans toute la partie basse de l’échelle des salaires, les hausses du salaire minimum se diffusant jusqu’à deux SMIC. Depuis le développement du chômage, des emplois précaires et à temps partiels, les salariés au SMIC à temps plein ne sont certes pas les plus pauvres, mais ils sont loin d’être aisés. Le SMIC réduit l’écart de revenus entre la classe populaire et la classe moyenne, ce qui est un objectif en soi (même si ceci peut-être mal perçu par une partie de la classe moyenne : par construction, la réduction des inégalités ne contente pas tout le monde). Surtout, il n’est pas équivalent de recevoir un salaire élevé ou de recevoir un salaire faible complété par une prestation sociale ciblée. Les prestations n’ouvrent pas de droits à la retraite ou au chômage. En termes de dignité, le niveau du SMIC représente la valeur qu’une société donne au travail. Les prestations sociales ciblées sur les plus pauvres mettent les individus concernés dans une position d’assistés, ce qui a des conséquences en termes de représentations (individuelles et collectives). Le travail étant effectué par des individus, il n’est pas illégitime de vouloir réduire les inégalités entre salariés et pas seulement entre ménages de salariés.

La proposition de coup de pouce au RSA est ambigüe car le terme RSA désigne à la fois un minimum social qui bénéficie à des chômeurs et inactifs (RSA ‘socle’, anciennement RMI et API) et un complément de revenus pour travailleurs pauvres (RSA ‘activité’). Si la proposition de coup de pouce ne concerne que le RSA activité, elle est incohérente avec l’objectif de cibler les foyers les plus défavorisés. Si, au contraire, elle concerne l’ensemble du RSA, ce qui serait légitime, il convient alors d’être plus explicite et d’assumer qu’elle bénéficiera principalement à des chômeurs et inactifs[1]. En mars 2012, il y avait en effet 1,59 million de bénéficiaires du RSA socle seul, et 689 000 du RSA activité (France entière) : seul un tiers des allocataires du RSA bénéficie de la partie activité.

La mise en place du RSA activité s’est soldée, jusqu’à présent, par deux échecs (« Les échecs du RSA ») : selon le rapport final du Comité national d’évaluation, les effets sur l’emploi ne sont pas discernables et la réduction de la pauvreté est fortement limitée à cause d’un important non-recours à la partie complément de revenus. Passons rapidement sur le premier point puisque les effets incitatifs du RSA ne sont plus mis en avant. Le problème principal d’un coup de pouce au RSA activité est bien le non-recours : dans le rapport, il est estimé, pour la partie RSA activité seul à 68% en décembre 2010[2]. Et ce n’est pas qu’une question de montée en charge : entre décembre 2010 et mars 2012, le nombre de bénéficiaires du RSA activité seul a très peu augmenté, passant de 446 000 à 447 000 en France métropolitaine. Lier l’éligibilité au RSA activité à la fois aux revenus d’activité et aux charges familiales et mêler dans un même instrument des bénéficiaires d’un minimum social et des travailleurs pauvres, parfois très bien intégrés au marché du travail, pose problème à la fois en termes de mauvaise évaluation de l’éligibilité à la prestation et de stigmatisation. Deux causes de non-recours au RSA activité sont ainsi soulignées: la connaissance insuffisante du dispositif d’une part et le non-recours volontaire d’autre part : 42% des non-recourants qui n’excluent pas d’être éligibles, déclarent qu’ils n’ont pas déposé de demande parce qu’ils « se débrouillent autrement financièrement », 30% n’ont pas déposé de demande parce que ils n’ont « pas envie de dépendre de l’aide sociale, de devoir quelque chose à l’Etat » (p.61). Une meilleure information ne serait donc pas suffisante pour régler le problème du non-recours. Au contraire, l’augmentation du SMIC a le grand avantage de bénéficier automatiquement aux personnes concernées sans crainte de stigmatisation puisqu’il s’agit de revenus du travail.

Contrairement au RSA, l’augmentation du SMIC brut augmente le coût du travail. Toutefois, il existe plusieurs stratégies permettant d’augmenter le SMIC net sans effet sur le coût du travail : l’augmentation peut être compensée par une baisse des cotisations sociales employeurs. On peut aussi alléger les cotisations sociales salariales sur les bas salaires. Mais, cette proposition risque d’être censurée par le Conseil constitutionnel, qui en 2000 avait retoqué l’exonération de CSG sur les bas salaires au motif que la progressivité de la CSG ne se serait alors pas appuyée sur la faculté contributive des ménages[3]. Enfin, une réforme de plus grande ampleur visant à fusionner la CSG et l’impôt sur le revenu permettrait de réduire l’imposition sur les bas salaires et d’augmenter ainsi le Smic net. L’intégration de la Prime pour l’emploi permettrait aussi de faire apparaître directement les sommes concernées sur la feuille de paie.

La lutte contre les inégalités ne doit évidemment pas s’arrêter aux inégalités de salaires entre salariés à temps-plein. Il convient de s’attaquer au temps partiel subi, en donnant des droits de passage au temps-plein aux salarié-e-s et/ou en rendant le temps partiel plus coûteux par une réduction du taux d’allégement général de cotisations patronales.

Fondamentalement, il n’y a pas de raison de vouloir faire fluctuer le niveau du RSA socle par rapport au SMIC. Or, du fait de l’indexation du RSA socle  sur les prix, son niveau a beaucoup baissé relativement au SMIC depuis le début des années 1990 (voir Périvier, 2007). Il serait donc légitime de revaloriser significativement le RSA socle (quitte à réduire le taux de cumul du RSA activité) et de l’indexer sur le niveau du SMIC. Ceci résoudrait définitivement la question du coup de pouce au SMIC ou au RSA.


[1] On voit ici que la ‘simplification’, qui a consisté à fusionner deux instruments en un seul, ne facilite pas le débat public

[2] Ce non-recours est partiellement expliqué par le fait que pour une partie des personnes éligibles (environ un tiers), les gains potentiels sont très faibles voire nuls du fait de la déduction des sommes versées au titre du RSA activité de la Prime pour l’emploi due. Mais le non-recours reste élevé même en prenant comme référence les gagnants potentiels (et non toutes les personnes éligibles).

[3] Décision n° 2000−437 DC du 19 décembre 2000 : « Considérant que, s’il est loisible au législateur de modifier l’assiette de la contribution sociale généralisée afin d’alléger la charge pesant sur les contribuables les plus modestes, c’est à la condition de ne pas provoquer de rupture caractérisée de l’égalité entre ces contribuables ; que la disposition contestée ne tient compte ni des revenus du contribuable autres que ceux tirés d’une activité, ni des revenus des autres membres du foyer, ni des personnes à charge au sein de celui-ci ; que le choix ainsi effectué par le législateur de ne pas prendre en considération l’ensemble des facultés contributives crée, entre les contribuables concernés, une disparité manifeste contraire à l’article 13 de la Déclaration de 1789  »




Les réseaux sociaux d’aujourd’hui. Un monde décidément bien petit

par Michel Forsé

Chacun a certainement personnellement expérimenté au moins une fois ce que suggère l’idée du « petit monde ». On rencontre un parfait inconnu et l’on s’aperçoit que l’on a avec lui une connaissance commune. Dès les années 1960, Stanley Milgram a apporté des éléments de validation empirique à cette intuition en essayant de déterminer combien il fallait en moyenne d’intermédiaires pour relier deux individus ne se connaissant pas dans une société aussi vaste que celle des Etats-Unis. Grâce à une expérimentation astucieuse, le résultat qu’il obtint fut frappant : 5,2 (ou 6 « degrés de séparation », comme on le dit souvent, passant par ces 5 intermédiaires). D’autres études menées depuis ont conduit à des chiffres à peu près du même ordre. Sans entrer ici dans des détails techniques, elles rencontraient cependant plusieurs écueils. Beaucoup d’abandons en cours d’expérience de la part des sujets enquêtés étaient observés et elles ne mettaient en jeu qu’un faible nombre de participants.

L’avènement récent des réseaux sociaux sur l’Internet a fourni l’occasion de reprendre le problème pour tenter cette fois une vérification à une échelle beaucoup plus large, puisqu’il s’agit de la planète entière. Les réseaux formés par une messagerie instantanée, Twitter ou Facebook ont été étudié sous cet angle. La question posée était chaque fois la même : combien faut-il d’intermédiaires pour relier deux individus pris au hasard dans un des ces réseaux. Et chaque fois, même si les chiffres peuvent varier légèrement, la réponse a confirmé, voire amplifié, ce que l’on pouvait attendre à la lumière des travaux de Milgram.

Le cas de Facebook est à cet égard particulièrement édifiant puisque c’est le plus grand réseau jamais analysé à ce jour. L’investigation menée en 2011 a porté sur 721 millions d’individus et sur les 69 milliards de liens qu’ils ont de fait entre eux. Sur cette base, il est apparu qu’il fallait en moyenne 4,7 intermédiaires pour relier deux abonnés à Facebook dans le monde. Ce chiffre descend même à 4,3 si l’on se restreint aux Etats-Unis. Nul doute donc que la thèse du petit monde se trouve par là largement validée.

Mais il reste à l’expliquer. De ce point de vue, si plusieurs modèles ont cours, deux apparaissent prépondérants : celui d’un monde de clusters reliés par des liens faibles et celui faisant intervenir des hubs à plusieurs niveaux (international, national, régional, local) selon une relative invariance d’échelle. Jusqu’ici, il s’est agi de modèles plutôt concurrents mais on peut entrevoir de les conjuguer comme l’article publié sur ce sujet dans la Revue de l’OFCE le suggère.