Chômage : forte volatilité, faible baisse

Département Analyse et prévision (Equipe France)

Les chiffres du chômage du mois de septembre 2016, publiés par Pôle emploi, font apparaître une baisse spectaculaire du nombre de demandeurs d’emploi en fin de mois (DEFM) en catégorie A (-66 300 personnes en France métropolitaine). Cette forte baisse fait plus que compenser la hausse tout aussi spectaculaire du mois dernier (+50 200). Au total, sur trois mois, le recul du nombre de demandeurs d’emplois atteint 35 200, troisième baisse trimestrielle consécutive, ce qui n’avait plus été observé depuis le début de la crise au début de 2008. Le chiffre de septembre confirme ainsi le retournement progressif de la courbe des DEFM sur un horizon de temps plus long : depuis le début de l’année, les effectifs en catégorie A ont baissé de 90 000 personnes et de 59 500 sur un an. Si l’on ajoute aux inscrits en catégorie A ceux ayant réalisé une activité réduite au cours du mois (catégories B et C), la baisse mensuelle est moins prononcée (-38 000 personnes), probablement parce qu’une partie des inscrits sans aucune activité a changé de catégorie après avoir retrouvé une activité réduite.

La baisse des inscrits en catégorie A au mois de septembre a bénéficié à part quasi égale aux hommes et aux femmes. Elle s’est toutefois concentrée sur les personnes les moins éloignées du marché du travail : les moins de 25 ans (-27 400, sous l’effet notamment du plan de formation) et les 25-49 ans (-37 300), ainsi que les inscrits depuis moins d’un an (-31 000 en catégorie ABC). La baisse a été marginale pour les plus de 50 ans (-1 600) et les demandeurs inscrits depuis plus d’un an (-7 100 en catégorie ABC).

Ces évolutions mensuelles très erratiques doivent à chaque fois être prises avec prudence. Les chiffres publiés par Pôle emploi sont soumis à des aléas propres à la pratique administrative. Selon Pôle emploi, elles reflètent en partie sur le passé récent la modification des règles d’actualisation d’inscription.

Focus : Le changement de règle d’actualisation et la volatilité des chiffres de Pôle emploi

Ce changement de règle, a priori anodin, a eu pour conséquence d’introduire une forte volatilité mensuelle dans les chiffres des cessations d’inscription pour défaut d’actualisation : chaque mois, certains demandeurs d’emploi n’actualisent pas leur situation (soit parce qu’ils ont retrouvé un emploi, soit par oubli…) et ne sont donc plus comptabilisés comme DEFM.

A partir du mois de janvier 2016, Pôle emploi a ainsi modifié les conditions d’actualisation de la situation des demandeurs d’emploi. Avant janvier 2016, le calendrier d’actualisation était fixé selon la règle :

  • – l’ouverture de l’actualisation relative au mois m avait lieu le 3e jour ouvré avant la fin du mois m,
  • – la relance avait lieu les 8e et 9e jours ouvrés du mois m+1
  • – la clôture de l’actualisation avait lieu la veille du 12e jour ouvré du mois m+1 à 23h59, que ce jour soit ouvré ou non.

Selon ce calendrier, l’intervalle de temps pour l’actualisation reposait sur un nombre total de jours variable (compris entre 18 et 23 jours, graphique) mais d’un nombre de jours ouvrés constant (14).

A compter de janvier 2016, la règle a changé : pour un mois donné, l’actualisation est ouverte le 28 de ce mois (sauf pour les mois de février où l’actualisation est ouverte le 26) et est clôturée le 15 du mois suivant :

  • – envoi par Pôle emploi des déclarations de situation mensuelle (DSM, le 28 du mois m en général ou le 26 en février) ; cet envoi se fait principalement par internet, plus marginalement par courrier postal ;
  • – ouverture de la télé-actualisation (le lendemain de l’envoi des DSM) ;
  • – retours d’actualisation par les demandeurs d’emploi, suivis le cas échéant du calcul et de la mise en paiement de l’allocation par Pôle emploi (pour les demandeurs d’emploi indemnisés, l’actualisation déclenche le versement de l’allocation) ;
  • – repérage par Pôle emploi des demandeurs d’emploi n’ayant pas encore actualisé leur situation ;
  • – relance des demandeurs d’emploi n’ayant pas encore actualisé leur situation (le 11 et le 12 du mois m+1) ; cette relance s’effectue par téléphone, SMS, ou courrier postal ;
  • – clôture de l’actualisation (le 15 du mois m+1 à 23h59).

Il a résulté de ce changement de règles une diminution des nombres moyens de jours d’actualisation, totaux ou ouvrés, une atténuation de la volatilité du nombre total de jours d’actualisation (compris entre 17 et 19 jours) et surtout l’apparition d’une variabilité du nombre de jours ouvrés (compris entre 11 et 14 jours), qui n’existait pas auparavant. Or les jours ouvrés étant plus propices à l’actualisation de situation que les jours fériés, leur plus grande variabilité retentit sur les cessations d’inscription pour défaut d’actualisation. Les mois incluant un nombre important de jours ouvrés affichent des cessations d’inscription moins nombreuses et inversement (graphique). Les évolutions exceptionnellement erratiques des inscrits en catégorie A ces deux derniers mois relèvent en partie de ce phénomène, avec un nombre de jours ouvrés en août (14) qui a favorisé les réinscriptions sur les listes de l’Agence, et par voie de conséquence, un dégonflement des défauts d’actualisation qui s’est répercuté en une forte augmentation des inscrits. Le mouvement inverse s’est produit en septembre avec un nombre de jours ouvrés (13) en diminution. En octobre, ce nombre diminuera encore, pour atteindre 11, ce qui pourrait provoquer à nouveau une hausse des défauts d’actualisation et un effet favorable sur le nombre d’inscrits à Pôle emploi.

graphe_post25-10

 

Le chômage en quelques chiffres

tabe-post25-10

 




Jusqu’où les taux d’intérêt peuvent-ils être négatifs ?

par Christophe Blot et Paul Hubert

Le 11 juin 2014, la Banque centrale européenne décidait de fixer un taux négatif sur les facilités de dépôts ainsi que sur les réserves excédentaires détenues par les établissements de crédit de la zone euro. Ce taux a été ensuite réduit à plusieurs reprises et s’élève à -0,40 % depuis mars 2016. On peut s’interroger sur le fait que des agents, ici les banques commerciales, acceptent de payer un intérêt pour des dépôts laissés auprès de la BCE. Dans un article sur les causes et conséquences des taux négatifs, nous expliquons comment la banque centrale parvient à imposer des taux négatifs, quel est leur limite à la baisse et discutons des coûts de cette politique pour les banques.

Pour conduire la politique monétaire, la BCE impose aux banques commerciales de la zone euro d’avoir un compte auprès de la BCE, utilisé pour satisfaire les exigences de réserves obligatoires[1] et pour participer aux opérations d’octroi de liquidités. Ce compte peut être aussi utilisé pour effectuer des transactions de compensation entre banques commerciales. Les réserves obligatoires sont rémunérées à un taux fixé par la BCE. Au-delà de ce montant, les banques ne reçoivent en temps normal aucune rémunération. Par ailleurs, la BCE propose également une facilité de dépôts permettant aux banques de placer des liquidités auprès de la BCE pour une durée de 24 heures et rémunérées au taux des facilités de dépôts.

Avant 2008, les banques commerciales détenaient uniquement les réserves dont elles avaient besoin pour satisfaire les exigences de réserves obligatoires (graphique). L’encours de réserves excédentaires[2] était très faible : moins de 1 milliard en moyenne avant 2008. Il en était de même pour l’encours des facilités de dépôts : 321 millions en moyenne. Depuis la crise, la BCE s’est substituée au marché interbancaire et est intervenue pour fournir des liquidités en quantité abondante. En participant aux différents programmes d’achat de titres de la BCE (QE, quantitative easing), les banques reçoivent également des liquidités qui sont placées sur ce compte de réserves si bien que l’encours cumulé des réserves excédentaires et des facilités de dépôts atteint 987 milliards d’euros en septembre 2016. Les taux négatifs ne s’appliquent donc pas à l’ensemble des opérations de politique monétaire mais uniquement sur cette fraction des liquidités laissées en dépôts par les banques (pour un actif total des banques de la zone euro de 31 000 milliards d’euros). Au taux actuel, le coût annuel  direct pour les banques est ainsi de 3,9 milliards d’euros.

Dans la mesure où les banques ne sont pas tenues de détenir ces réserves excédentaires, on peut se demander pourquoi elles acceptent de supporter ce coût. Pour répondre à cette question, il faut examiner les possibilités d’arbitrage avec d’autres actifs qui pourraient être utilisés comme substitut aux réserves excédentaires. Les réserves sont en fait une monnaie[3] émise par les banques centrales uniquement à l’intention des banques commerciales et sont de fait un actif très liquide. Or, sur le marché monétaire, les taux sont également négatifs si bien que les banques sont indifférentes entre avoir des réserves excédentaires et placer leurs liquidités sur le marché interbancaire à une semaine ou acheter des titres du Trésor émis par le gouvernement français ou allemand par exemple, dont le rendement est également négatif.

 

post-hubert

En fait, le meilleur substitut aux réserves serait de détenir directement du cash. La substitution pourrait donc s’opérer au sein même de la base monétaire si les banques demandaient la conversion des réserves excédentaires et des facilités de dépôts en billets qui ont les mêmes propriétés en termes de liquidité et ont un intérêt nominal nul. Actuellement, il faudrait alors convertir 987 milliards de réserves sous forme de billets, ce qui en doublerait presque l’encours ; la quantité de billets en circulation était de 1 096 milliards d’euros en septembre 2016. Le fait que les agents puissent disposer d’un actif ne portant pas intérêt est l’argument justifiant que les taux nominaux ne puissent pas être négatifs. En pratique, cet arbitrage ne se fait pas dès que le seuil de taux négatif est franchi dans la mesure où il existe des coûts à la détention de monnaie sous forme de billets. Le taux nominal peut donc être négatif. On peut cependant considérer qu’il existe un seuil à partir duquel la détention de cash est préférée. Ce coût de détention de grandes quantités d’argent n’est pas précisément connu mais il semble non négligeable et en tout cas supérieur au 0,4 % chargé par la BCE aujourd’hui. De fait, aucune substitution ne semble avoir été opérée aujourd’hui puisque la croissance de l’encours de billets en circulation n’a pas particulièrement augmenté depuis la mise en place du taux négatif (graphique). Une évaluation faite par Jackson (2015) indique que les différents coûts liés à la détention de monnaie sous forme de pièces et de billets pourraient aller jusqu’à 2 %, valeur qui pourrait constituer une contrainte effective (ELB) pour la baisse des taux.

Au-delà du coût que représentent les taux négatifs pour les banques, il convient de considérer les bénéfices attendus d’une telle politique et le cadre global dans lequel ils s’inscrivent. Conjointement aux taux négatifs, la BCE permet aux banques, via le programme TLTRO II, de se financer elles-mêmes à des taux négatifs et les incite ainsi doublement (via le coût des réserves excédentaires et via le taux auquel elles se financent) à octroyer des crédits à l’économie réelle.

 

[1] Les établissements de crédit sont en effet tenus de laisser en réserves sur ce compte, une fraction des dépôts collectés auprès des agents non financiers. Voir ici pour plus de détails.

[2] Montant des réserves au-delà des réserves obligatoires.

[3] Avec les billets émis, elles forment ce qu’on appelle la base monétaire, également appelée M0.




L’optimisme des banquiers centraux a-t-il un effet sur les marchés ?

par Paul Hubert et Fabien Labondance

Les « esprits animaux », aussi appelés « erreurs d’optimisme et de pessimisme » ou « sentiments » contribuent aux fluctuations macroéconomiques comme mis en lumière par Pigou (1927), Keynes (1936), ou plus récemment Angeletos et La’O (2013)[1]. La quantification de tels concepts inobservables apparaît cruciale pour comprendre comment les agents économiques forment leurs anticipations et prennent leurs décisions, qui à leur tour influencent l’économie. Dans un récent document de travail, nous étudions cette question en analysant la communication des banques centrales et en évaluant ses effets sur les anticipations de marchés de taux d’intérêt.

Notre étude a pour objectif de quantifier le « sentiment » véhiculé par la communication des banques centrales à travers les déclarations de politique monétaire de la Banque centrale européenne (BCE) et la Reserve fédérale américaine (Fed) puis nous testons si cet optimisme ou ce pessimisme transmis dans ces déclarations affecte la structure par terme des anticipations de taux d’intérêt à court terme.

Le principal défi consiste à mesurer un concept aussi peu tangible que le « sentiment » de la banque centrale. Dans un premier temps, nous quantifions la tonalité employée par la BCE et la Fed dans leurs déclarations de politique monétaire en employant une analyse textométrique qui s’appuie sur trois dictionnaires de mots « positifs » et « négatifs »[2]. Précisons que l’objectif ici n’est pas de mesurer l’orientation du discours (expansionniste ou restrictif par exemple) mais bien de quantifier l’usage de mots à tonalité positive ou négative afin de mesurer la tonalité globale du discours indépendamment de son message de fond. Le sentiment se conçoit comme une composante indépendante des fondamentaux économiques et des décisions de politique monétaire[3]. Dit autrement, nous cherchons à savoir si l’usage de certains mots plutôt que d’autres, indépendamment du message communiqué, affecte les marchés financiers.

 Le graphique 1 montre l’évolution de la tonalité des discours des banquiers centraux, calculée sur la base des trois dictionnaires, entre 2005 et 2015 pour la BCE et la Fed. Cette tonalité est corrélée au cycle économique : le discours est plus optimiste (tonalité positive) durant les périodes de croissance et plus pessimiste (tonalité négative) durant les périodes de récession. On retrouve ainsi à travers notre mesure de tonalité les récessions de 2008-2009 en zone euro et aux Etats-Unis, ainsi que la crise des dettes souveraines en 2012-2013 en zone euro. La tonalité des banquiers centraux semble donc être le produit d’une combinaison entre l’évaluation des banques centrales de l’état actuel et futur de l’économie, et du sentiment qu’elles véhiculent.

graph-1

Après avoir isolé la composante de « sentiment » des variables quantifiant la tonalité, nous mesurons l’impact de ce sentiment sur la variation des anticipations de taux d’intérêt à court terme, mesurées par des swaps de taux d’intérêt (OIS – pour Overnight Indexed Swaps), pour des maturités allant de 1 mois à 10 ans. Parce que ce sentiment est communiqué le jour de la décision de politique monétaire, nous vérifions également que nous ne mesurons pas l’effet de la décision en elle-même.

Nos résultats montrent qu’un discours dont le sentiment est positif (i.e. optimiste) a un effet positif sur les anticipations de taux d’intérêt à des maturités allant de 3 mois à 10 ans dans la zone euro et à des maturités de 1 à 3 mois et de 1 à 3 ans aux Etats-Unis. L’effet culminant se situe autour des maturités de 1 et 2 ans à la fois dans la zone euro et aux Etats-Unis. Nous montrons également que cet effet est persistant et tend à prendre de l’ampleur dans le temps (cf. graphique 2). Nous trouvons aussi que l’effet du sentiment dépend de la précision du signal, de sa taille et de son signe (l’effet du pessimisme est plus fort que celui de l’optimisme, par exemple), ainsi que du niveau de l’inflation ou de la croissance.

graph-2

graph-1

Ces résultats montrent que les marchés ne réagissent pas uniquement au message de fond mais également à la façon dont il est véhiculé par les banquiers centraux. Le sentiment des banquiers centraux influence la formation des anticipations de taux d’intérêt et semble indiquer l’évolution future du sentier des taux directeurs. Dans un contexte où les observateurs scrutent avec attention le moindre détail qui pourrait révéler la date à laquelle la Fed augmentera à nouveau son taux d’intérêt, ce travail ouvre de nouvelles pistes de recherche et suggère qu’il pourrait être utile de tester si le sentiment véhiculé lors des derniers discours de Janet Yellen pourrait en être un bon indicateur.

 

[1] Angeletos, George-Marios, et Jennifer La’O (2013), « Sentiments », Econometrica, 81(2), 739-780 ; Keynes, John Maynard (1936), General Theory of Employment, Interest and Money, London, Palgrave Macmillan; et Pigou, Arthur Cecil (1927), Industrial Fluctuations, London, Palgrave MacMillan.

[2] Nous utilisons trois dictionnaires différents : celui centré sur la communication des banques centrales d’Apel et Blix-Grimaldi (2012),  celui développé par Loughran et McDonald (2011) pour un contexte financier, et le General Inquirer’s Harvard dictionary recensant les mots positifs et négatifs de la vie de tous les jours. Ces dictionnaires listent les mots ou expressions connotés positivement ou négativement. La différence entre le nombre de mots positifs et négatifs indique la tonalité du texte : s’il y a plus d’expressions positives que négatives, la tonalité sera optimiste et inversement, pessimiste. Voir Apel, Mikael, et Marianna Blix-Grimaldi (2012), « The information content of central bank minutes », Riksbank Research Paper Series, n° 92 ; Loughran Tim, et Bill McDonald (2011), « When is a Liability not a Liability? Textual Analysis, Dictionaries, and 10-Ks », Journal of Finance, 66 (1), 35-65 ; et http://www.wjh.harvard.edu/~inquirer/.

[3] Cf. Angeletos et La’O (2013).




Le CICE est-il le bon instrument pour améliorer la compétitivité française ?

par S. Guillou, T. Treibich, R. Sampognaro, L. Nesta

Le 29 septembre 2016, France Stratégie a remis son rapport d’évaluation des effets du CICE. Le rapport conclut à une absence d’effet de court terme sur les exportations, allant à l’encontre de l’effet attendu du CICE sur la compétitivité des entreprises françaises. Parallèlement, la dégradation du solde commercial français qui se poursuit en 2013 et 2014 ne contredit pas ce résultat.  Faut-il en conclure que le CICE n’est pas un bon outil pour améliorer la compétitivité et augmenter la valeur des exportations ? Nos résultats montrent qu’on devrait s’attendre à terme à un effet positif du CICE sur les exportations compris entre 1,5 et 5,0 milliards d’euros grâce à une baisse du coût du travail équivalente à la créance CICE de 2013, soit 1% de la valeur exportée ou 0,25% du PIB. Cet effet de moyen terme ne contredit pas les résultats des autres équipes évaluant le CICE (TEPP et LIEPP). Nous privilégions en effet la thèse de l’attentisme des entreprises face à cette mesure nouvelle pour expliquer les faibles effets de court terme.

 

Trois équipes de chercheurs (TEPP, LIEPP et OFCE) ont été mandatées par France Stratégie pour réaliser une étude sur données d’entreprises, avec pour mission d’identifier un changement de comportement des entreprises en réponse au CICE. Elles ont bénéficié pour ce faire d’un accès aux créances déclarées (le crédit d’impôt potentiel) et consommées (le crédit d’impôt effectivement reçu, dépendant du montant d’impôt dû par l’entreprise) par les entreprises françaises. L’équipe de l’OFCE s’est focalisée sur le volet « compétitivité » du crédit d’impôt. Précisément, l’objectif a été d’évaluer l’impact potentiel du CICE sur les exportations des entreprises.

Les mécanismes par lesquels le CICE peut améliorer la compétitivité reposent à court terme (i) sur la baisse des prix induite par une baisse du coût du travail, (ii) l’augmentation des moyens de financement pour faire face aux coûts d’entrée sur les marchés étrangers (par exemple, coûts de distribution, adaptation des produits), et à plus long terme (iii) sur l’impact des investissements d’amélioration de la qualité (compétitivité hors-prix) permis par l’augmentation des marges due au CICE. Ainsi, sur la période d’observation disponible – l’année la plus récente à ce jour étant 2014 – c’est-à-dire à court terme, seul le canal de la compétitivité-prix pouvait être attendu.

L’usage des données d’entreprises et de salariés pour réaliser cet exercice d’évaluation est exigé par l’hypothèse d’hétérogénéité des réponses. La meilleure réponse des exportateurs au CICE (baisse des prix ou hausse du taux de marge) peut être spécifique à chaque entreprise. Elle dépendra de l’élasticité-prix de sa demande extérieure, du degré de différenciation de son produit, ainsi que de la part du travail dans son coût de production. Utilisant les informations sur l’hétérogénéité des entreprises, notamment sur la distribution des salaires par entreprise, mais aussi sur les produits exportés, il est possible de solliciter plusieurs dimensions qui vont singulariser la réponse des entreprises à une variation exogène des coûts du travail, et déterminer la sensibilité de leurs exportations au coût du travail. Cette sensibilité – dite directe – est attendue négative (une baisse du coût du travail augmentant les exportations) mais elle peut être hétérogène parmi les entreprises exportatrices. Afin d’évaluer l’amélioration de la compétitivité-prix des entreprises induite par le CICE, nous avons exploré par ailleurs le canal dit indirect, c’est-à-dire le comportement de transmission des baisses de coût vers les prix des exportations.

La difficulté de l’exercice d’évaluation (déjà souligné dans Guillou, 2015) tient en 1) la disponibilité des données d’observations, limitées à 2014, soit à peine deux ans après la mise en place de la politique ; 2) l’impossibilité d’établir un solide contrefactuel (ou groupe de contrôle), c’est-à-dire un groupe d’entreprises très semblables à celles recevant le CICE mais ne le recevant pas. En effet, la quasi-totalité des entreprises sont éligibles au CICE, et celles qui ne le reçoivent pas ont un profil très particulier puisqu’elles n’ont que des salariés au-dessus de 2,5 SMIC. Selon nos calculs, 96% des entreprises juridiquement éligibles sont concernées par le CICE et elles rassemblent 97% des salariés. Les entreprises non traitées – celles dont le salaire de l’ensemble des salariés est supérieur à 2,5 SMIC – sont plutôt une exception statistique dans le paysage français.

Face à ces difficultés, l’équipe de l’OFCE a choisi d’évaluer ex ante la sensibilité des exportations à des variations exogènes du coût du travail. Notre approche a consisté à estimer les élasticités des exportations à des variations exogènes du coût du travail unitaire (c’est-à-dire corrigé de la productivité du travail) à partir d’une relation d’équilibre issue d’un modèle de concurrence monopolistique. Le modèle théorique attend des exportations qu’elles varient de façon inverse au coût du travail. Il s’agit d’une relation d’équilibre, c’est-à-dire qu’elle devrait se produire une fois l’ensemble des ajustements réalisés, et n’est donc pas forcément une relation immédiate.

L’élasticité des exportations au coût du travail unitaire a été estimée sur la période 2009-2013 pour l’ensemble des exportateurs français. L’identification repose sur l’hétérogénéité des entreprises en termes des variations exogènes de leur coût du travail unitaire, en contrôlant des effets sectoriels et temporels, et des évolutions des exportations propres à l’entreprise. L’exogénéité des variations du coût du travail est obtenue en l’instrumentant par le coût du travail de la zone d’emploi de l’entreprise, à secteur donné.

En termes d’évaluation de l’amplitude de l’effet sur les exportations qu’on est en « droit » d’attendre du CICE, nous trouvons un effet non négligeable malgré de faibles élasticités. Comme décrit dans notre contribution, mise à disposition par France Stratégie en toute transparence, cet effet, non négligeable, repose sur l’hypothèse que la créance CICE se transmet intégralement à la baisse des coûts salariaux unitaires (CSU). Nos résultats montrent qu’on devrait s’attendre à un effet positif du CICE sur les exportations compris entre 1,5 et 5,0 milliards d’euros grâce à une baisse du coût du travail équivalente à la créance CICE de 2013, soit 1% de la valeur exportée ou 0,25% du PIB. Si la créance CICE de 2014 se transmet intégralement à la baisse des CSU, la hausse permise des exportations devrait s’établir, à terme, entre 2,9 et 7,6 milliards d’euros, soit 1,3% des exportations et 0,3% du PIB. Ces estimations constituent vraisemblablement les valeurs hautes de la fourchette de réponse. L’effet agrégé cache une hétérogénéité de réponses : la réaction de la marge intensive des exportateurs au CICE est d’autant plus importante que leur taux de marge est faible et/ou qu’elles sont plus exposées au CICE.

Il faut rappeler que nos résultats reposent sur l’hypothèse que le CICE constitue une baisse du coût du travail, et donc, toutes choses égales par ailleurs, du coût de production. Cependant, quel en a été l’usage ? A la suite de cette baisse du coût de production, l’entreprise peut décider de réduire ses prix, augmenter ses marges ou embaucher. Au-delà de l’évaluation globale sur les exportations, notre étude a donc eu pour objectif d’évaluer l’arbitrage prix-taux de marge choisi par les entreprises.

Assimiler le CICE à une baisse du coût du travail, est-ce une hypothèse valable ? Si le CICE est en pratique une baisse d’impôt, le calcul du CICE par l’entreprise ne dépend que de la masse salariale sous le seuil de 2,5 SMIC. Par conséquent, les instances qui régissent la comptabilité tant nationale (INSEE) que privée (Autorité des Normes Comptables) interprètent le CICE comme une baisse des charges d’exploitation associées au travail. Cette hypothèse serait contrariée si le CICE avait permis des augmentations de salaires à postes et qualifications constants, ce qui n’a pas été observé avec robustesse.

Ces résultats ne sont pas contraints par une hypothèse sur le montant de transmission de la variation du coût du travail vers les prix. En effet, cette baisse du coût du travail a pu se traduire par une transmission incomplète vers les prix, et par conséquent par une transmission vers les marges des entreprises ou leur trésorerie. Nos résultats montrent que la transmission de la variation des coûts du travail au prix est loin d’être complète. De fait notre second exercice d’estimation (le canal indirect décrit ci-dessus) indique qu’en moyenne seul un tiers d’une baisse des coûts se traduirait en baisse des prix. Cela laisse entendre que les marges ont automatiquement répercuté environ 70% du gain du CICE. Plus généralement, nos estimations révèlent que les exportations sont sensibles au coût du travail en raison d’une faible différenciation des produits en moyenne. L’absence d’effet constaté en 2013 et en 2014 par des évaluations en double différence (voir LIEPP) et correspondant à la conclusion générale du rapport de France Stratégie ne contredit pas forcément nos résultats. Notre travail permet notamment d’inférer sur les causes d’absence de réaction. Les exportations ne sont pas insensibles par nature à une baisse du coût du travail (l’élasticité estimée aurait alors été nulle). L’absence de réaction au CICE à court terme pourrait s’expliquer de trois manières : 1)    Si les entreprises ont augmenté les salaires, elles n’ont pas connu de baisse du coût du travail. Notre hypothèse de travail serait contredite (comme l’objectif de la politique) et les effets sur les exportations seraient plus faibles ;2)    Si les entreprises ont substitué du capital par du travail (afin d’augmenter leur créance CICE) et ainsi diminué leur productivité, alors leur coût du travail unitaire a pu être stable ou a pu augmenter[1] ;3)    Si les entreprises doutent de la pérennité de la mesure, elles peuvent avoir un comportement attentiste et réagiront en différé. Par exemple, elles ne vont pas changer leur catalogue de prix sans être sûres de pouvoir bénéficier durablement de la mesure dans les années suivantes. Cette phase d’attentisme pourrait expliquer l’absence de réaction des exportations à la variable CICE dans le court terme. Nous privilégions la dernière hypothèse, ce qui nous conduit à dire que dans le moyen terme, les exportations devraient répondre positivement au stimulus du CICE. Notre contribution montre qu’au-delà de la nécessaire évaluation empirique ex-post, il reste fondamental de comprendre les mécanismes théoriques par lesquels le CICE peut agir sur la trajectoire économique. En particulier, ceci permet de mieux appréhender pourquoi ses effets se sont matérialisés ou pas en 2013 et 2014.

 

[1] On rappelle que le coût du travail unitaire est défini comme le ratio du salaire horaire sur la productivité horaire du travail. Ainsi, toutes choses égales par ailleurs, si la productivité du travail diminue, le coût du travail unitaire augmente.




Faut-il taxer les contrats courts ?

A l’heure où le gouvernement réfléchit à taxer les contrats courts, il nous a semblé opportun de (re)lire le billet de Bruno Coquet : “Taxer les contrats courts : pourquoi et comment ?” publié en mai 2016.




Prélèvement à la source de l’impôt sur le revenu et année de transition : quel impact pour les finances publiques et l’équité fiscale?

par Gilles Le Garrec et Vincent Touzé

Dans le cadre du Projet de Loi de Finance 2017 présenté et discuté à l’Assemblée nationale à partir du mois d’octobre, le gouvernement Valls propose une réforme fiscale majeure avec la mise en place d’un prélèvement à la source de l’impôt sur le revenu dès le mois de janvier 2018.

Prélever l’IR à la source s’inscrit dans une démarche de simplification fiscale. Son principal attrait est d’offrir une meilleure synchronisation entre le moment où le revenu est perçu et celui où il est taxé, notamment au moment de la retraite ou à la suite d’un licenciement engendrant une baisse de revenu. La simplification fiscale est totale si le contribuable n’a plus de déclaration à faire et si le prélèvement à la source est libératoire, c’est-à-dire quand l’imposition est définitive et le revenu net perçu est libéré de toute obligation fiscale.

Toutefois, mettre en place un prélèvement à la source se heurte à deux types de difficulté (Cour des comptes, 2012 ; Sterdyniak, 2015 ; Touzé, 2015).

Premièrement, tous les revenus ne sont pas aisément imposables à la source pour la simple raison qu’apprécier leur juste mesure prend du temps et que recueillir ces informations doit se faire dans le respect de la confidentialité des données récoltées. La progressivité de l’IR ainsi que l’usage de quotients conjugal et familial complexifient particulièrement le calcul, ce qui rend difficile le caractère libératoire de l’impôt prélevé à la source.

Deuxièmement, l’année de transition est difficile à fiscaliser car on ne peut pas faire payer deux impôts la même année aux ménages (un qui serait prélevé à la source sur les revenus 2018 et un autre qui serait payé avec retard sur les revenus 2017). Cependant, la non fiscalisation est également problématique car elle pourrait donner lieu à d’importantes stratégies d’optimisation fiscale et rendre inopérants les mécanismes d’incitation fiscale prévus par la loi pour certaines dépenses[1] (dons, emploi à domicile, etc.). Pour les contribuables bénéficiaires d’une année blanche, le gain sera effectif à leurs décès puisque ces derniers auront bien payé une année de moins d’impôt sur l’ensemble de leur cycle de vie.

Par ailleurs, payer plus tôt l’IR signifie aussi la perte de l’avantage du délai d’un an pour payer. Sans application d’une réduction égale au taux d’intérêt nominal, le prélèvement à la source s’assimile donc à une hausse implicite de l’IR. Pour les générations qui ne paient pas encore d’IR et qui ne bénéficieront pas de l’année blanche, la hausse implicite constitue une perte évidente. La hausse d’impôt relative est égale au taux d’intérêt. Pour les générations qui paient déjà l’IR, il est nécessaire de faire un bilan entre ce qu’elles gagnent (année blanche) et perdent potentiellement (suppression du délai de paiement).

Dans un document de travail de l’OFCE, nous étudions l’impact sur les finances publiques et sur le montant d’IR payé par les ménages d’un prélèvement à la source qui donnerait lieu à une année blanche. Notre étude aboutit à quatre résultats :

  • Si les revenus de l’année 2017 ne sont pas fiscalisés et si la hausse fiscale implicite est neutralisée, la réforme se traduit par un manque à gagner relatif de recettes fiscales annuelles qui est approximativement égal à la différence entre le taux d’intérêt nominal et le taux de croissance nominal ;
  • A l’inverse, si l’année blanche est associée à une hausse implicite de la fiscalité, alors l’Etat est gagnant car il va percevoir un surplus relatif de recettes fiscales qui est égal au taux de croissance nominal de l’économie ;
  • Quelles que soient les modalités de la réforme, la rupture de l’équité devant l’impôt aboutit à un impact générationnel inégalitaire. Cet impact est toujours en faveur des générations les plus âgées au détriment des plus jeunes et futurs contribuables. Cette propriété résulte du fait que les générations les plus âgées (particulièrement les 55-65 ans) ont souvent des niveaux plus élevés d’IR (forte année blanche potentielle) et qu’elles seront moins longtemps impactées par la hausse implicite en raison d’un horizon de vie plus court. Sous l’hypothèse d’une hausse fiscale implicite de 2%, nos calculs prospectifs, réalisés à partir de l’enquête ERFS 2013, montrent que les plus jeunes générations pourraient avoir à payer en plus l’équivalent d’une année d’IR moyen sur l’ensemble de leur cycle de vie tandis que les plus de 60 ans pourraient réaliser une économie d’environ une année moyenne d’impôt sur leur cycle de vie restant (voir graphique ci-après). Sans hausse implicite, le gain serait nul pour les futures générations de contribuables et les plus de 50 ans pourraient économiser un montant d’impôt supérieur à une année d’IR moyen sur leur cycle de vie restant ;
  • Fiscaliser l’année de transition sans modifier fortement la trésorerie des ménages n’est pas simple :
    1. Un paiement échelonné sur une dizaine d’années conduit pour les ménages à une hausse élevée de l’IR (de l’ordre d’une dizaine de pourcent chaque année) ;
    2. Un paiement après le décès conduit à une dette fiscale à payer très variable qui dépend du montant d’IR dû pour l’année 2017 qui est fortement lié à l’âge du contribuable ainsi que du montant des intérêts cumulés qui dépend de façon exponentielle de l’horizon de vie du contribuable ;
    3. Il est, certes, possible de rembourser une partie des charges d’intérêt sur la créance fiscale tout en maintenant une trésorerie inchangée pour les générations de la transition, mais cela se fait, de facto, au prix de la perte de la synchronisation (un des objectifs principaux du prélèvement à la source).

Pour conclure, le législateur fait face à trois options :

  • Considérer que les inconvénients engendrés par l’année blanche et la hausse implicite de la fiscalité sont de second ordre par rapport aux avantages attendus du prélèvement à la source ;
  • Neutraliser ces inconvénients en proposant aux contribuables différentes options de remboursement de l’IR sur les revenus 2017, ce qui n’est pas sans faire apparaître d’autres inconvénients, et en annulant la hausse implicite ;
  • Choisir une solution de moindre mal qui pourrait reposer sur une année 2017 partiellement blanche et une hausse fiscale limitée de façon à avoir un impact nul sur le budget de l’Etat.

graphe_post26-09

Source : Calculs prospectifs des auteurs d’après ERFS 2013 et projections démographiques de l’INSEE (2010) et sous un scénario d’un taux d’intérêt nominal de 2%, d’un taux d’inflation de 1% et d’une croissance de 1,5%.
Nota : Il est important de souligner que ce scénario prospectif est basé sur une hypothèse d’inflation, de croissance et de taux d’intérêt faibles. Des scénarios plus optimistes sur l’évolution de l’économie, à moyen et long terme, amplifient l’impact de la suppression du délai de paiement. De ce point de vue, notre scénario peut donc être jugé minimaliste sur l’impact d’un prélèvement à la source avec hausse implicite de l’IR.

 

Bibliographie

Cour de Comptes, 2012, Prélèvement à la source et impôt sur le revenu, Rapport, février.

Sterdyniak H., 2015, « Prélèvement à la source : une réforme compliquée, un gain très limité », Blog de l’OFCE, 24 juin 2015.

Touzé V., 2015, « Prélever à la source l’impôt sur le revenu : une réforme compliquée et coûteuse », Blog de l’OFCE , 15 septembre 2015.

 

[1] A cet égard, le Projet de Loi de finance 2017 prévoit le maintien des déductions et crédits d’impôt attachés à des dépenses effectuées en 2017. Si cette clause est validée par le Parlement et par le Conseil constitutionnel, alors ces avantages fiscaux donneront droit à une réduction d’impôt en 2018. La Cour des comptes (2012) estime que le maintien de ces dépenses fiscales pour l’année de transition coûterait entre 5 à 10 milliards d’euros.




Chômage à contre-emploi

par OFCE, Département Analyse et prévision (Equipe France)

Les chiffres du chômage du mois d’août 2016 publiés par Pôle Emploi font apparaître une forte augmentation du nombre de demandeurs d’emploi en fin de mois (DEFM) en catégorie A[1] (+50 200 personnes en France métropolitaine). Cette forte progression efface en grande partie les améliorations observées depuis le début de l’année. Sur un an, le nombre de demandeurs d’emploi n’exerçant aucune activité reste en légère baisse  (- 10 900 personnes). La hausse des inscrits en catégorie A au mois d’août a touché toutes les catégories d’âge. Si on ajoute les inscrits ayant réalisé une activité réduite au cours du mois, la hausse mensuelle est encore plus prononcée (+76 100 personnes). Les attentats qui ont frappé la France, et notamment celui du 14 juillet à Nice, ont eu un impact négatif sur l’activité touristique venant de l’étranger (hébergement-restauration, activités de loisir) avec des conséquences négatives sur l’emploi des secteurs concernés mais dont l’ampleur n’est à ce stade pas chiffrable.

Ces évolutions, franchement négatives, doivent être cependant prises avec prudence. Selon Pôle Emploi, elles reflètent en partie la modification des règles d’actualisation d’inscription décidée au mois de janvier 2016. Au mois d’août, le nombre de sorties pour défaut d’actualisation a atteint un point bas depuis l’instauration de la nouvelle règle. Ceci s’expliquerait par le nombre de jours ouvrés où il était possible de s’inscrire, particulièrement fort au mois d’août.

Ceci doit nous rappeler que les chiffres publiés par Pôle Emploi sont soumis à des aléas propres à la pratique administrative. Ces aléas ne sont pas nécessairement corrélés avec les évolutions sous-jacentes de l’emploi. En effet, l’analyse des tendances de l’emploi et du chômage nécessite la prise en compte d’autres indicateurs qui capturent mieux les évolutions du marché du travail.

Focus : l’évolution de l’emploi au sens de la comptabilité nationale depuis un an

Malgré un chiffre de croissance décevant au deuxième trimestre 2016, publié vendredi dernier par l’Insee, et la forte augmentation du nombre de DEFM au mois d’août (dont l’évolution est souvent très volatile au mois le mois), il n’en reste pas moins que l’économie française reste créatrice d’emplois dans le secteur marchand depuis le deuxième trimestre 2015. Les créations d’emplois salariés ont ainsi atteint ou dépassé le chiffre de 40 000 par trimestre depuis 1 an, rythme légèrement plus dynamique que fin 2010-début 2011 et qui n’avait plus été observé depuis l’année 2007 (graphique 1).

La reprise molle entamée en 2015 (+1,2 % de croissance) et qui se poursuit en 2016 (+1,1 % d’acquis à la fin du deuxième trimestre) aurait à peine permis de stabiliser le chômage, compte tenu de la croissance de la population active (+0,5 % par an) et des gains de productivité tendanciels (estimés à +0,8 % par an). Toutefois, les créations d’emplois salariés dans le secteur marchand sont stimulées par les mesures de baisse du coût du travail (CICE, Pacte de responsabilité, prime à l’embauche) qui enrichissent la croissance en emplois. Depuis quatre trimestres, les créations d’emplois salariés dans le secteur marchand ont contribué à 75 % des créations d’emplois, le reste se répartissant entre les créations d’emplois dans le secteur non-marchand[2] (pour 17 %) et les emplois non-salariés marchands (pour 8 %).

g1_post26-09

La panne de croissance observée au deuxième trimestre, les attentats et le Brexit ne semblent pas remettre en cause la dynamique de l’emploi salarié marchand. Au-delà des derniers chiffres positifs portant sur le nombre d’intérimaires en fin de mois (+0,7 % en juillet), et sur les déclarations d’embauche de plus d’un mois (hors intérim) qui augmentent de 3,7 % en août après une hausse de 0,6 % au mois de juillet, les intentions d’embauches déclarées dans les enquêtes de conjoncture indiquent une poursuite des créations d’emplois dans les services marchands au troisième trimestre, ainsi qu’un net ralentissement des destructions d’emplois dans le secteur de la construction (graphique 2). Concernant les industries manufacturières, les intentions d’embauches sont plus hésitantes au premier semestre, après cependant une nette amélioration en 2015.

g2_post26-09

tabe_post26-09

 

[1] Les inscrits en catégorie A n’ont exercé aucune activité, pas même réduite, à la différence des inscrits en catégories B et C.

[2] Dans le secteur non-marchand, les créations d’emplois sont tirées notamment par les contrats aidés (emplois d’avenir, contrats d’accompagnement dans l’emploi).




Eclairage sur le négationnisme économique

Par Pierre Cahuc et André Zylberberg

Nous remercions Xavier Ragot de nous permettre de répondre à son commentaire sur notre ouvrage, Le Négationnisme économique. Comme beaucoup de contradicteurs, Xavier Ragot estime que

1/ « le titre même du livre procède d’une grande violence. Ce livre témoigne d’une pente dangereuse du  débat intellectuel qui va à la fois vers une caricature du débat et une violence verbale »,

2/ notre ouvrage relève « d’une approche scientiste et réductrice » qui « affirme une foi dans le savoir issue des expériences naturelles qui ne lui semble pas faire consensus en économie»,

3/ nous voulons « importer dans le débat public la hiérarchie du débat académique ».

Nous répondons ci-dessus à ces trois assertions avec lesquelles nous sommes en désaccord.

 

1/ Sur le négationnisme économique

L’expression « négationnisme économique » ne caricature pas le débat. Nous l’avons choisie car la notion de « négationnisme scientifique » est une expression consacrée dans les débats sur la science, et nous parlons ici de science. Cette expression est couramment usitée notamment sur le blog scientifique du journal Le Monde, « Passeurs de Sciences », primé meilleur blog dans le domaine scientifique. Notre ouvrage en rappelle la signification, dès l’introduction, et la développe dans le chapitre 7. Nous rappelons que le négationnisme scientifique est une stratégie qui repose sur quatre piliers :

1/ Semer le doute et fustiger « la pensée unique » ;

2/ Dénoncer des intérêts mercantiles ou idéologiques ;

3/ Condamner la science car elle n’explique pas tout ;

4/ Promouvoir des sociétés savantes « alternatives » ;

Cette stratégie a pour but de discréditer des chercheurs qui obtiennent des résultats jugés gênants. Elle affecte toutes les disciplines à plus ou moins grande échelle, comme l’ont montré les ouvrages de Robert Proctor[1] et de Naomi Oreske et Erik Conway[2]. C’est précisément cette stratégie qui est adoptée dans les deux manifestes des Economistes Atterrés[3] et dans l’ouvrage intitulé A quoi servent les économistes s’ils disent tous la même chose[4]. Ces textes s’appuient sur les quatre piliers du négationnisme scientifique rappelé ci-dessus. Ils annoncent haut et fort l’existence d’une pensée unique (pilier 1) cédant peu ou prou aux exigences des marchés financiers (pilier 2), donc incapable de prévoir les crises financières (pilier 3), il en résulte la nécessité de créer des sociétés savantes alternatives (l’AFEP existe déjà mais il est réclamé en plus l’ouverture d’une nouvelle section d’économie à l’Université…) (pilier 4).

Cette stratégie ne nourrit pas le débat. Elle l’annihile. Elle ne vise qu’à discréditer des chercheurs anonymes ou reconnus. Jean Tirole a été récemment la victime d’un tel discrédit de la part de certains économistes auto-proclamés « hétérodoxes ».

 

2/ Sur l’approche scientiste et réductrice.

Xavier Ragot affirme que « la promotion au statut de vérité du consensus des économistes (Cahuc, Zylberberg, p. 185), est gênante, car elle ne tient pas compte des contributions de travaux « minoritaires ». Nous n’érigeons nullement le consensus en vérité, nous disons très précisément (p. 185) que le consensus, lorsqu’il existe, est la meilleure approximation  de la « vérité ». L’usage des guillemets sur le mot vérité et la qualification de meilleure approximation montrent bien que nous ne sommes pas du tout dans l’idée d’un absolutisme scientiste. Notre usage des termes consensus et vérité nous semblent correspondre à l’usage habituel dans la démarche scientifique.

Pour conforter notre position sur ce point, citons encore notre ouvrage pages 184-185 : « Faire confiance à une communauté constituée de milliers de chercheurs reste la meilleure option pour avoir une opinion éclairée sur les sujets que nous ne connaissons pas. C’est néanmoins une forme de pari, car même si la science constitue le moyen le plus fiable de produire des connaissances, elle peut se tromper. Mais douter systématiquement des résultats obtenus par les scientifiques spécialistes de la question posée et préférer se fier à des experts auto-proclamés est bien plus risqué» ; et page 186 : « L’élaboration du savoir est une œuvre collective où chaque chercheur produit des résultats dont la robustesse est testée par d’autres chercheurs. La « connaissance scientifique » est la photographie de cette œuvre collective à un moment donné. C’est l’image la plus fiable de ce que nous savons sur l’état du monde. Cette image n’est pas fixe, elle est même en constante évolution ».

Ainsi, lorsqu’aucune étude empirique sur la réduction de la durée légale ou conventionnelle du travail (hors abaissement de charges) ne trouve d’effet positif sur l’emploi, rien ne permet d’affirmer que réduire la durée du travail puisse créer des emplois… tant qu’aucune étude publiée ne trouve le contraire. Le négationnisme économique consiste à nier ces résultats en affirmant qu’ils procèdent d’une pensée unique guidée par l’ignorance du monde réel ou par une conspiration. Nous affirmons donc que le débat est toujours nécessaire, mais qu’il doit respecter des règles pour être constructif : les arguments avancés doivent s’appuyer sur des contributions qui ont passé la « critique des pairs » pour que leur pertinence soit certifiée. Bien évidemment, sur de nombreux sujets, les études disponibles ne permettent pas de dégager des résultats convergents. Dans ce cas, il faut savoir le reconnaître. Plusieurs exemples illustrent cette situation dans notre ouvrage.

 

3/ Sur nos recommandations pour ouvrir le débat et le rendre transparent

Comme nous l’avons évoqué auparavant, notre objectif n’est pas de clore le « débat intellectuel », accessible au public non spécialiste, mais de le rendre plus constructif et plus informatif. Les débats en économie, même lorsqu’il s’agit simplement de présenter des faits, sont souvent assimilés à des confrontations politiques, ou des pugilats entre divers courants de pensées. Nous disons simplement que pour organiser des débats informatifs (page 209) « les journalistes devraient cesser de faire systématiquement appel aux mêmes intervenants, surtout lorsqu’ils n’ont aucune activité de recherche avérée tout en étant néanmoins capables de s’exprimer sur tous les sujets. Ils devraient plutôt solliciter d’authentiques spécialistes. Le classement de plus de 800 économistes en France sur le site IDEAS peut les aider à sélectionner des intervenants pertinents. Dans tous les cas, il faut consulter les pages web des chercheurs afin de s’assurer que leurs publications figurent dans des revues scientifiques de bon niveau, dont la liste est disponible sur le même site IDEAS. Si un économiste n’a aucune publication au cours des cinq dernières années dans les 1700 revues répertoriées sur ce site on peut en conclure que ce n’est plus un chercheur actif depuis un bon moment, et il est préférable de s’adresser à quelqu’un d’autre pour avoir un avis éclairé. Les journalistes devraient aussi demander systématiquement les références des articles sur lesquels les chercheurs s’appuient pour fonder leurs jugements et, le cas échéant, réclamer que ces articles soient mis en ligne à la disposition des lecteurs, auditeurs ou téléspectateurs ».

Ainsi, loin de vouloir « importer dans le débat public la hiérarchie du débat académique » selon les mots de Xavier Ragot,  nous voudrions simplement que le débat académique soit mieux portée à la connaissance des non-spécialistes afin qu’ils puissent distinguer ce qui relève des incertitudes (ou des consensus) entre chercheurs de ce qui relève des options politiques des intervenants.

 

[1] Golden Holocaust : La Conspiration des industriels du tabac, Sainte Marguerite sur Mer, Équateurs, 2014.

[2] Les Marchands de doute. Ou comment une poignée de scientifiques ont masqué la vérité sur des enjeux de société́ tels que le tabagisme et le réchauffement climatique, Paris, Editions le Pommier, 2012.

[3] Manifeste des économistes atterrés (2010) et Nouveau manifeste des économistes atterrés (2015), éditions LLL.

[4] Editions LLL 2015.

 

 




« Le négationnisme économique » de Cahuc et Zylberberg : l’économie au premier ordre

par Xavier Ragot

Le livre de Pierre Cahuc et André Zylberberg[1] est une injonction à tenir compte des vérités scientifiques de l’économie dans le débat public, face aux interventions cachant des intérêts privés ou idéologiques. Le livre contient des développements intéressants, décrivant les résultats de travaux empiriques utilisant des expériences naturelles pour évaluer des politiques économiques dans le domaine éducatif, de la politique fiscale, de la réduction du temps de travail, etc.

Cependant, le livre est caricatural et probablement contre-productif tant les affirmations sont à la frontière du raisonnable. Au-delà du débat sur les 35 heures ou sur le CICE, c’est le statut du savoir économique dans le débat public qui est en jeu.

1) L’économie est-elle devenue une science expérimentale comme la médecine et la biologie ?

Le cœur du livre est l’affirmation que la science économique produit des savoirs de même niveau scientifique que la médecine, pour traiter les maux sociaux. Je ne pense pas que cela soit vrai et l’on peut simplement citer le Prix Nobel d’économie 2015, Angus Deaton :

« Je soutiens que les expériences n’ont pas de capacités spéciales à produire un savoir plus crédible que d’autres méthodes, et que les expériences réalisées sont souvent sujettes à des problèmes pratiques qui sapent leur prétention à une supériorité statistique ou épistémologique » (Deaton 2010, je traduis).

La charge est sévère et il ne s’agit pas de nier l’apport des expériences en économie mais de comprendre leurs limites et reconnaître qu’il y a bien d’autres approches en économie (les expériences naturelles ou contrôlées ne concernent qu’un petit pourcentage des travaux empiriques en économie).

Quelles sont les limites des expériences ? Les expériences naturelles permettent seulement de mesurer les effets moyens de premier ordre sans mesurer les effets secondaires (que l’on appelle les effets d’équilibre général) qui peuvent changer considérablement les résultats. Un exemple connu : les travaux du Prix Nobel Heckman (1998) en économie de l’éducation, qui montrent que ces effets d’équilibre général changent considérablement les résultats des expériences, au moins dans certains cas.

Par ailleurs, les expériences ne permettent pas de prendre en compte l’hétérogénéité des effets sur les populations, de bien mesurer les intervalles de confiance, etc. Je laisse ici ces discussions techniques développées dans l’article de Deaton. On peut aussi noter que le pouvoir de généralisation des expériences naturelles est souvent faible, ces expériences étant par construction non reproductibles.

Donnons un exemple : Cahuc et Zylberberg utilisent l’étude de Mathieu Chemin et Etienne Wasmer (2009) sur la comparaison de l’effet de la réduction du temps de travail entre l’Alsace et la France entière pour identifier l’effet sur l’emploi d’une réduction additionnelle de 20 minutes du temps de travail. Ce travail ne trouve pas d’effets d’une réduction additionnelle de 20 minutes du temps de travail sur l’emploi. Peut-on en conclure que le passage à 35 heures, soit une réduction dix fois supérieure du temps de travail, n’a pas d’effets sur l’emploi ? Peut-il y avoir des effets d’interaction entre les baisses de cotisations et la réduction du temps de travail ? Je ne crois pas que l’on puisse affirmer que la seule réduction du temps de travail crée de l’emploi, mais cela me semble difficile d’affirmer scientifiquement que le passage aux 35 heures n’a pas créé d’emplois sur la base des études citées (les auteurs mobilisent aussi l’exemple du Québec où la réduction a été bien plus importante).

L’économiste utilise les données d’une manière bien plus diverse que ce que présentent Cahuc et Zylberberg. Le livre ne parle pas des expériences de laboratoire réalisées en économie (voir Levitt et List, 2007). Ensuite, le rapport de l’économie aux données est en train de changer avec le vaste accès aux données que permet la diffusion du numérique (le big data pour aller vite). Les techniques économétriques feront probablement une utilisation plus intense de l’économétrie structurelle. Dans un travail récent (Challe et al., 2016), nous développons, par exemple, un cadre permettant d’utiliser à la fois des données microéconomiques et macroéconomiques pour mesurer les effets de la grande récession aux Etats-Unis. Enfin, on assiste à un retour de l’histoire économique et des séries longues. Les travaux de Thomas Piketty en sont un exemple, à juste titre remarqué. D’autres travaux, sur l’instabilité financière (notamment ceux de Moritz Schularik et Alan M. Taylor) retrouvent aussi le temps long pour produire de l’intelligibilité. Bref, le rapport aux données en économie mobilise plusieurs méthodes qui peuvent donner des résultats contradictoires.

Ce n’est pas un détail, l’approche scientiste du livre est réductrice. Le livre de Cahuc et Zylberberg affirme une foi dans le savoir issue des expériences naturelles qui ne me semble pas faire consensus en économie.

2) Comment passer à côté des questions importantes

Un aspect du livre montre concrètement le problème de l’approche. Les auteurs sont très sévères envers le CICE (la baisse des cotisations sociales employeurs décidée par le gouvernement jusqu’à 2,5 fois le SMIC) avec comme argument principal qu’il est connu que la baisse des cotisations au voisinage du SMIC a des effets bien plus grands sur l’emploi que pour des niveaux plus hauts de salaire. Ce dernier point est vrai mais les auteurs passent à côté du problème. Quel est-il ?

Les premières années d’existence de l’euro ont vu des divergences inédites du coût du travail et d’inflation entre les pays européens. L’histoire européenne, jusque dans les années 1990, gérait ces divergences par des dévaluations/réévaluations qui ne sont plus possibles du fait de la monnaie unique. La question que les économistes se posent en regardant cette situation est de savoir si la zone euro peut survivre à de tels désajustements (voir les positions récentes de Stiglitz sur le sujet). La discussion s’est portée sur la mise en place de dévaluation interne dans les pays européens surévalués et de hausse de salaires dans les pays sous-évalués. Pour ce faire, l’Allemagne a mis en place un salaire minimum, des pays ont baissé les salaires des fonctionnaires, d’autres ont baissé leurs cotisations (en France, le CICE) sachant que d’autres outils fiscaux sont possibles (voir Emmanuel Farhi, Gita Gopinath et Oleg Itskhoki, 2013). La question cruciale est donc la suivante : 1) Faut-il faire une dévaluation interne en France et de combien ? 2) Si nécessaire, comment faire une dévaluation interne non récessionniste et qui n’augmente pas les inégalités ?

On voit bien le problème si l’on répond à ces questions par l’effet des baisses de cotisations au voisinage du SMIC. Cela montre le danger de ne reposer que sur les seuls résultats mesurables par les expériences : on passe à côté de questions essentielles que l’on ne peut trancher par cette méthode.

3) Le problème du  « keynésianisme »

Les auteurs affirment que le keynésianisme est porteur d’un terreau négationniste tout en affirmant dans le livre que les recettes de Keynes fonctionnent parfois mais pas tout le temps, ce avec quoi tous les économistes seront d’accord. Sans nuances, ces propos sont problématiques. En effet, on assiste dans les années récentes (après la crise des subprimes de 2008) à un retour des visions keynésiennes, qui se voit dans les publications les plus récentes. J’irai jusqu’à dire que nous vivons un moment keynésien avec une grande instabilité financière et de massifs déséquilibres macroéconomiques (Ragot, 2016).

Qu’est-ce donc que le keynésianisme ? (Ce n’est, bien sûr, pas l’irresponsabilité fiscale de toujours plus de dettes publiques) C’est l’affirmation que les mouvements de prix ne permettent pas toujours aux marchés de fonctionner normalement. Les prix évoluent lentement, les salaires sont rigides à la baisse, les taux d’intérêt nominaux ne peuvent être très négatifs, etc. De ce fait, il existe des externalités de demande qui justifient l’intervention publique pour stabiliser l’économie. Le débat français produit des concepts comme « le keynésianisme » ou le « libéralisme » qui n’ont pas de sens dans la science économique. C’est le rôle du scientifique d’éviter les faux débats, pas de les entretenir.

4) Faut-il n’écouter que les chercheurs publiant dans les meilleures revues ?

Le débat public est très différent, dans son but et dans sa forme, du débat scientifique. Cahuc et Zylberberg veulent importer dans le débat public la hiérarchie du débat académique. Cela ne peut pas fonctionner.

On aura toujours besoin d’économistes non-académiques pour discuter des sujets économiques. L’actualité économique suscite des questions auxquelles les académiques n’ont pas de réponse consensuelle. La presse économique est remplie d’avis d’économistes de banques, de marché, d’institutions, de syndicats qui ont des points de vue légitimes tout en étant non-académiques. Des journaux présentent leur point de vue comme Alternatives Economiques, cité par Cahuc et Zylberberg, mais aussi le Financial Times qui mélange aussi les genres. Des économistes avec de faibles références strictement académiques sont légitimes dans ce débat, même s’ils ont des avis différents d’autres chercheurs avec des listes de publication plus fournies.

Ces contradictions sont vécues concrètement à l’OFCE qui a pour mission de contribuer au débat public avec la rigueur académique. C’est un exercice très difficile, il demande une connaissance des données, du cadre juridique, de la littérature académique produite par les institutions, comme le Trésor, l’OCDE, le FMI, la Commission européenne. La connaissance de la littérature économique est nécessaire mais est loin d’être suffisante pour des contributions utiles au débat public.

Un exemple de la volonté des économistes de contribuer au débat public est celui des différentes pétitions autour de la loi El Khomry. Les pétitions ont largement débattu de l’effet des coûts de licenciement sur les embauches et la forme du contrat de travail, mais pas de l’inversion des normes (sujet impossible à évaluer rigoureusement à ma connaissance) qui est pourtant le cœur du débat entre le gouvernement et les syndicats ! Il n’est pas sûr que l’idée de consensus parmi les économistes soit sortie grandie de cet épisode.

5) Lorsque le consensus existe en économie, faut-il n’écouter que lui ?

Le consensus avant la crise des subprimes était que la financiarisation et la titrisation étaient des facteurs de stabilisation économique, du fait de la répartition des risques, etc. Des études microéconomiques pouvaient confirmer ces intuitions car elles ne captaient pas la source réelle de l’instabilité financière, qui était la corrélation des risques dans les portefeuilles des investisseurs. Ce consensus était faux, nous le savons maintenant. Certes des économistes hors du consensus, comme Roubini ou Aglietta, et certains journalistes économistes comme ceux de The Economist, ont alerté des effets déstabilisateurs de la finance, mais ils étaient hors du consensus.

Le politique (et le débat public) est obligé de se demander : que se passe-t-il si le consensus se trompe ? Il doit gérer tous les risques, c’est sa responsabilité. Le point de vue consensuel des économistes est souvent faiblement informatif sur la diversité des points de vue et les risques encourus. La voix publique des économistes hors du consensus est nécessaire et utile. Par exemple, le Prix Nobel d’économie a été remis à Eugène Fama et Robert Schiller qui tous deux ont étudié l’économie financière. Le premier affirme que les marchés financiers sont efficients, le second que les marchés financiers génèrent une volatilité excessive. Des journaux portent des visions hors du consensus, comme Alternatives Economiques en France (au moins c’est dans le titre). Ces journaux sont utiles au débat public, précisément du fait de leur ouverture au débat.

Dans le domaine scientifique, la diversité des méthodes et la connaissance de méthodologie hors du consensus enrichissent le débat. Pour cette même raison, j’étais plutôt contre la création d’une nouvelle section d’économistes hétérodoxes, portée par l’AFEP, car je perçois le coût intellectuel de la segmentation du monde des économistes. Pour cette même raison, la promotion au statut de vérité du consensus des économistes (Cahuc, Zylberberg, p. 185), est gênante, car elle ne tient pas compte des contributions de travaux « minoritaires ».

6) « Le négationnisme économique » : radicalisation du discours

Les auteurs fustigent les critiques idéologiques de l’économie qui ne connaissent pas les résultats ou même la pratique des économistes. La science économique porte de forts enjeux politiques et elle est donc toujours attaquée quand des résultats dérangent. Certaines critiques abaissent le débat intellectuel au niveau d’injures personnelles. La défense de l’intégrité des économistes est bienvenue, mais elle demande une grande pédagogie et modestie pour expliquer ce que l’on sait et ce que l’on ne sait pas.

A la lecture du livre de Cahuc et Zylberberg, on a l’impression que les auteurs prennent les armes de leurs adversaires : on définit deux camps (la vraie science et les négationnistes), on laisse planer des doutes sur l’honnêteté intellectuelle des pseudo-scientifiques hors du consensus, on procède par amalgame, en mélangeant les intellectuels (Sartre) et les économistes académiques. Le titre même du livre procède d’une grande violence. Ce livre témoigne d’une pente dangereuse du débat intellectuel qui va à la fois vers une caricature du débat et une violence verbale. Tous les économistes intervenant dans le débat public se sont déjà fait insulter par des personnes en désaccord avec les résultats présentés, pour de pures raisons idéologiques. Il faut combattre l’insulte, mais pas en laissant penser que l’on peut échapper au débat du fait de son statut académique.

Le débat en Angleterre sur le Brexit a montré comment les économistes et les experts étaient rejetés du fait de leur arrogance perçue. Je ne suis pas sûr que la position scientiste du livre soit une solution à cette évolution du débat public. Pour reprendre Angus Deaton dans un entretien récent au journal Le monde :

« Croire que l’on a toutes les données, c’est manquer singulièrement d’humilité. … Il y a certes un consensus en économie, mais son périmètre est bien plus réduit que ne le pense les économistes ».

 

Références

Angus Deaton, 2010, « Instruments, Randomization, and Learning about Development », Journal of Economic Literature, 48, 424-455.

Edouard Challe, Julien Matheron, Xavier Ragot et Juan Rubio-Ramirez, « Precautionary Saving and Aggregate Demand », Quantitative Economics, forthcoming.

Matthieu Chemin et Etienne Wasmer, 2009 : « Using Alsace-Moselle Local Laws to Build a Difference-in Differences Estimation Strategy of the Employment Effects of the 35-hour Workweek Regulation in France »Journal of Labor Economics, vol. 27(4), 487-524.

Emmanuel  Farhi, Gita Gopinath et Oleg Itskhoki, 2013, « Fiscal Devaluations“, Review of Economic Studies, 81 (2), 725-760.

James J. Heckman, Lance Lochner et Christopher Taber, 1998, « General-Equilibrium Treatment Effects: A Study of Tuition Policy », The American Economic Review, 381-386.

Steven D. Levitt et John A. List, 2007, « What Do Laboratory Experiments Measuring Social Preferences Reveal About the Real World ?  », Journal of Economic Perspectives, Vol. 21, n° 2, 153-174.

Xavier Ragot, 2016, « Le retour de l’économie Keynésienne », Revue d’Economie Financière.

 

[1] Pierre Cahuc et André Zylberberg, Le négationnisme économique et comment s’en débarrasser, Paris, Flammarion, 2016.




Assurance chômage des seniors, peu de problèmes, beaucoup de solutions

par Bruno Coquet (IZA et OFCE)

Depuis le début des années 1960 les seniors bénéficient d’un accès privilégié à l’assurance chômage et de dispositions spécifiques d’indemnisation, notamment une durée potentielle de leurs droits très étendue. Ce type de pratique est commun à de nombreux régimes d’assurance chômage dans le monde.

Jusqu’au milieu des années 1990 ces règles n’ont pas suscité de débat. Les seniors étaient en effet très souvent orientés vers des dispositifs de préretraites qui occultaient les comportements indésirables que peuvent susciter – tant de la part des employeurs, des salariés que des chômeurs – des règles d’assurance chômage inadaptées ou mal contrôlées. Avec l’abandon des préretraites, ces comportements sont apparus plus clairement, créant un débat sur la responsabilité et la suppression des règles d’indemnisation du chômage spécifiques aux seniors.

Les droits dont bénéficiaient les chômeurs seniors ont en conséquence été progressivement réduits ; leur suppression totale figure toujours parmi les demandes de réforme les plus régulièrement mises en avant, que ce soit au nom de la rectification des comportements indésirables qu’elles engendrent ou du redressement des comptes de l’Unedic. C’est cette question qu’analyse la Note de l’OFCE n°XX.

Les seniors n’apparaissent cependant pas surreprésentés au chômage, ni en particulier au chômage indemnisé. Il n’est pas aisé d’illustrer que ces chômeurs indemnisés fassent preuve d’un aléa moral particulièrement fort, en dépit des longues durées d’indemnisation dont beaucoup d’entre eux bénéficient (pas tous car seulement la moitié des seniors qui entrent au chômage sont éligibles à une durée potentielle des droits de 36 mois).

Les « préretraites Unedic » apparaissent comme un phénomène marginal tant en termes quantitatifs, car elles ne concernent à peine plus de 5% des seniors indemnisés par l’assurance chômage, qu’en termes financiers puisque leur poids dans les dépenses de l’Unedic est du même ordre de grandeur.

On oublie souvent de le mentionner mais les 50 ans et plus sont un groupe contributeur net à l’assurance chômage : moins exposé à ce risque que d’autres tranches d’âge, les seniors qui subissent ce risque ont cependant besoin d’une protection adaptée aux difficultés particulières qu’ils rencontrent sur le marché du travail. Dans ces conditions, toute réduction de leurs droits qui ne se traduirait par une diminution significative de leurs cotisations devrait être considérée avec prudence.

Sur la base de ces éléments de diagnostic, nous montrons que l’assureur a de nombreuses possibilités pour renforcer l’efficacité l’assurance chômage des seniors, à moindre coût. Nous proposons pour cela des solutions techniques, certaines très ciblées, d’autres plus ambitieuses, que l’assureur pourrait mettre en œuvre afin de réduire les défauts que les partenaires sociaux jugent prioritaires. Ces propositions sont de deux ordres :

  • Traiter les problèmes avérés… sans affecter la logique d’ensemble

❶ Réduire l’incitation aux préretraites Unedic, sachant que pour cela il est inutile et inefficace de taxer tous les seniors ;

❷ Réexaminer l’opportunité de maintenir l’Allocation de Solidarité Spécifique (ASS), avant de modifier la réglementation de l’assurance chômage ;

❸ Revoir les modalités de maintien des droits au-delà de la durée maximale d’indemnisation, jusqu’à la retraite ;

❹ Renforcer l’accompagnement, dans la mesure où il s’avérerait que c’est sa faiblesse qui serait à l’origine d’un aléa moral chez les chômeurs seniors.

  • Revoir la logique d’ensemble pour réduire les problèmes avérés et futurs

❺ Créer un plafond de durée potentielle des droits continûment croissant avec l’âge ;

❻ Plafonner les possibilités de la validation des trimestres de retraite grâce à des trimestres de chômage indemnisé ;

❼ Créer un compte individuel partiel, afin de lutter contre l’aléa moral, de réintroduire plus de contributivité et d’équité dans le système, pour les seniors tels qu’ils sont actuellement définis, ou plus largement ;

❽ Dans le périmètre actuel d’affiliation à l’assurance chômage, poser la question des cotisations des seniors à l’assurance chômage.

Ces solutions sont parfois complémentaires, parfois exclusives les unes des autres. Elles montrent que de nombreuses solutions à la fois incitatives et économiques sont possibles en dehors de la réduction paramétrique de la « générosité » des droits des seniors. Le paramétrage de ces solutions pourrait être ajusté pour trouver des points d’équilibre lors de la négociation.

 

Pour en savoir plus : Coquet Bruno, 2016, « Assurance chômage des seniors : peu de problèmes, beaucoup de solutions », OFCE policy brief 3, 8 septembre