par Guillaume Allègre, g_allegre
Un conseiller ministériel m’a récemment expliqué ce qu’il pense être la stratégie du Président de la République concernant la gestion macroéconomique et le chômage, qu’on pourrait appeler stratégie du retournement : « Par rapport à la présidentielle, l’objectif est de faire baisser le chômage en 2016-2017. Les électeurs ne votent qu’en fonction de l’évolution du chômage dans la dernière année, voire les 6 derniers mois. Comme pour Jospin en 2002 ». La croyance qu’en ce qui concerne le chômage et l’économie en général, c’est la dérivée qui compte, l’évolution récente et non le niveau, est assez ancrée dans le milieu technocratico-politique : « it’s the derivative, stupid ! » est le nouveau « it’s the economy, stupid !» (maxime du stratégiste de campagne de Bill Clinton en 1992).
Cette croyance découle en partie d’une intuition confirmée par une célèbre expérimentation psychologique. Dans cette étude, les participants sont soumis à deux expériences douloureuses durant lesquelles une de leur main est plongée dans de l’eau glacée. L’une dure 60 secondes et l’autre 90 secondes. Dans la deuxième, les premières 60 secondes sont les mêmes tandis que les 30 secondes additionnelles sont un peu moins douloureuses (l’expérimentateur fait couler de l’eau un peu plus chaude dans le récipient). Plus tard, les participants doivent choisir de répéter une de ces deux expériences et 80% choisissent la plus longue. Ceci ne paraît pas rationnel car dans l’expérience la plus longue, la somme des douleurs est plus importante. Pour un observateur objectif c’est bien cette somme qui devrait compter (« l’aire sous la courbe ou l’intégrale »). Mais les participants ont une mémoire sélective : ils sont plus fortement influencés par les moments représentatifs de l’expérience et notamment, ici, par l’amélioration à la fin de l’épisode. Daniel Kahneman, « Prix Nobel » d’économie en 2002 pour ses travaux sur les biais de jugement, dont on trouvera un ouvrage vulgarisé ici, distingue deux moments représentatifs durant un épisode déplaisant : le pic de souffrance et la fin[1].
Des économistes, surtout américains, ont développé des modèles politico-économétriques de prévisions électorales afin d’estimer les liens entre économie et résultats électoraux. La popularité de ces modèles varie au gré des élections, selon leur pouvoir de prédiction : en 1992, la moitié des modèles avait prédit une réélection facile pour George Bush père ; en 1996 la réélection de Clinton était bien prévue ; par contre en 2000 pratiquement tous les modèles prévoyaient une large victoire d’Al Gore… Et le modèle avec la prévision la plus proche à cette élection (0,6 %) s’est trompé de 5 points à l’élection suivante. Evidemment, grâce à la multiplication des prévisions, il est toujours possible de trouver un modèle, tel Paul le Poulpe (voir wiki), ayant une bonne série en cours.
Ce succès très relatif n’a pas empêché l’importation en France des modèles politico-économétriques. La forme générique de ces modèles tente d’expliquer le pourcentage de vote pour un candidat ou parti par des variables économiques (PIB, chômage, revenu en niveau ou en variation) et politiques (popularité du président et du premier ministre). La très grande majorité des modèles utilise comme variable économique le chômage en variation, avec un horizon relativement court, en moyenne d’un an. La conclusion tirée de ces estimations empirique est que la mémoire de l’électeur français apparaît limitée (Dubois, 2007).
Mais ces études sont confrontées à un problème important : le faible nombre d’observations (neuf élections présidentielles et treize élections législatives entre 1958 et 2011). « Pour l’économètre, on ne vote pas assez souvent », observe Lafay (1995)[2]. Autrement dit, la loi des grands nombres ne peut pas s’appliquer dans ce type de configuration. Ceci est aggravé par le fait que le contexte de ces élections change par un nombre de variables pratiquement aussi élevé que le nombre d’élections (présence de cohabitation, élections législatives isolées ou couplées à des présidentielles, présence d’un sortant ou non lors d’une élection présidentielle, élections législatives anticipées, présence ou non d’un candidat de gauche au deuxième tour pour les présidentielles, importance des triangulaires pour les législatives…). D’autres problèmes techniques se posent aux économètres. Dans une revue de littérature fouillée analysant l’ensemble des soixante et onze études politico-économiques concernant le vote en France entre 1976 et 2006, Dubois qualifie le traitement de ces problèmes, « s’il existe », de « relativement frustre ». Tout comme aux Etats-Unis, les modèles connaissent des « fortunes diverses » en termes de prévision. Enfin, notons un problème que les économètres appellent endogénéité : les modèles politico-économiques tentent de prévoir ou expliquer le résultat des élections avec des variables économiques (chômage) et la popularité de l’exécutif. Or, il fait peu de doutes que la popularité de l’exécutif est en partie fonction des variations et du niveau du chômage : dans ce cas, la non-significativité des variations de plus long-terme des variables économiques peut-être expliquée par le fait que leur impact est déjà inclus dans la popularité de l’exécutif. Bref, ces études empiriques ne sont donc pas du tout suffisantes pour conclure qu’en termes économiques, la mémoire de l’électeur est limitée.
Pour reprendre les termes de Kahneman, la machine à tirer des conclusions hâtives est en marche : une intuition (la mémoire des électeurs est sélective) s’appuyant sur des études psychologiques (dont l’objet est très éloigné) et confirmée par des études économétriques (non robustes et qui ne font donc que reproduire les a priori des chercheurs). L’histoire racontée est cohérente et il semble qu’elle soit corroborée par les faits… A y réfléchir, il peut paraître effrayant que des responsables politiques puissent agir sous l’influence de ce cocktail rhétorique. Ceci est d’autant plus effrayant que pour un observateur extérieur, du point de vue du bien-être collectif et donc des objectifs de politiques publiques, c’est évidemment le niveau du chômage sur plusieurs années (son intégrale) et non son évolution au cours de la dernière année (sa dérivée) qui compte !
Au niveau européen, et maintenant national, de nombreuses règles ont été mises en place pour éviter que les hommes politiques à la tête des gouvernements essaient de gagner les élections en menant des politiques qui, certes, réduisent le chômage à court terme mais qui creusent les déficits à long terme. Des critères de Maastricht (déficit public inférieur à 3% du PIB) au récent cadre financier pluriannuel européen, les règles se justifient par la croyance que le personnel politique est par construction incité à mener une politique budgétaire trop laxiste car ne prenant pas en compte les générations futures, qui, par construction, ne votent pas. Or, si les gouvernants commencent à croire que ce sont les évolutions économiques à court-terme qui comptent, alors les incitations sont inversées, surtout s’il est plus facile de réduire le chômage après l’avoir fait augmenter, ce qui mènerait à un sentier de croissance trop faible et un sentier de chômage trop élevé[3]. Dans ce cas, la solution ne pourrait venir d’une gouvernance par de nouvelles règles contraignantes, qui ont de toute façon jusqu’ici prouvé leur inefficacité. Il faut s’appuyer sur le fait que la stratégie du retournement ne peut fonctionner en termes électoraux que si les citoyens ne comprennent pas qu’on essaye de les manipuler. Dévoiler la manipulation est alors plus efficace que la mise en place de règles. Dont acte.
[1] Par conséquent, ceux qui suivent cette théorie aujourd’hui devraient également s’occuper du pic de chômage et non seulement de son évolution en fin de mandat.