Cet article a pour but de présenter (voire démystifier) la « règle de Taylor », d’en étudier l’usage par les différentes banques centrales au cours du temps, de mettre en lumière certaines de ses limites et, finalement, de présenter une alternative plus moderne à cette règle.

Une compréhension plus fine de cette règle te permettra de briller face à des sujets portant sur les politiques économiques (cf. sujet Ecricome 2020, « Les politiques économiques peuvent-elles éviter les crises économiques ? ») et plus particulièrement ceux ayant trait à la politique monétaire (cf. sujet 0 ESCP/Skema 2023 !).

Finalement, la véritable plus-value de cet article réside dans l’interprétation/adaptation moderne de la règle de Taylor proposée par Jézabel Couppey-Soubeyran. Il permet d’apporter un peu d’originalité à la troisième partie de dissertation, celle qui souvent explore les alternatives et/ou les solutions au problème du sujet.

 

Présentation : une politique de règle

Qu’est-ce qu’une politique de règle exactement ? Ce sont des politiques « prédéterminées », au sens où elles suivent des principes fixés ex-ante par les pouvoirs publics et servent un objectif clair. Il existe deux types de politiques de règle : les politiques dites « passives », qui restent identiques à travers le temps, et les politiques « actives », qui s’adaptent à l’évolution de la conjoncture.

Les politiques de règle s’opposent aux politiques dites « discrétionnaires », qui ne répondent à aucun principe préétabli et qui sont de ce fait impossibles (ou presque…) à anticiper. Ce caractère imprévisible donne lieu à une « incohérence temporelle » selon F. Kydland et E. Prescott (« Rules Rather than Discretion: The Inconsistency of Optimal Plans », 1977), empêchant alors les agents économiques (supposés parfaitement rationnels) de prendre des décisions optimales. Dès lors, les politiques de règle, puisque transparentes et prévisibles, seraient préférables.

La règle de Taylor, qui est une politique active, s’inscrit dans ce courant de pensée. J. Taylor publie l’article « Discretion Versus Policy Rules in Practice » en 1993, et cherche à faciliter le pilotage de la politique monétaire, lequel passe par l’analyse de différentes variables : la production, l’inflation ainsi que le taux d’intérêt réel neutre. On a : it = r + πt + α(πt − π) + β(yt − y).

it est le taux d’intérêt directeur qui doit être pratiqué à la période t, r est le taux d’intérêt réel neutre que l’on retrouve chez Wicksell, πt est le taux d’inflation observé à la période t et π est le taux d’inflation ciblé par la Banque centrale (la différence représente le déséquilibre nominal), yt est le volume de la production observé en t et y la production potentielle. (yt − y) mesure donc l’ouptut gap. Finalement, α et β sont des coefficients strictement positifs dont la somme fait 1 : ils représentent l’importance que l’on attribue à chacun des objectifs par rapport à l’autre, c’est-à-dire les préférences d’une Banque centrale entre la stabilité des prix et la croissance.

La BCE et la Fed suivent toutes les deux (de façon plus ou moins visible) une règle de Taylor, la seule différence étant la valeur des différents coefficients. La Fed a α = β = 0,5 : la stabilisation nominale est aussi importante que la stabilisation réelle. La BCE, elle, a α = 1 et donc β = 0, ce qui est conforme au mandat de la BCE.

 

Les limites de la règle de Taylor traditionnelle

Nous retiendrons deux limites. La première réside dans la faiblesse du modèle de Taylor en période de crise, faiblesse dont la Fed a fait l’expérience lors de la crise économique et financière de 2008. Lors de cette période, la dégradation soudaine et conséquente des fondamentaux de l’économie américaine a « déboussolé » la boussole taylorienne du pilotage de la politique monétaire. En effet, selon cette règle, la Fed aurait dû instaurer en réaction face à la crise un taux directeur de −6 % ! Rien que ça ! Un tel taux est impensable aujourd’hui, alors que les taux d’intérêt directeurs sont déjà collés au plancher zéro (zero lower bound) et que l’expérience des banques centrales en territoire négatif reste très limitée (voir le cas de la Suède).

La seconde limite est plus pernicieuse et est liée aux hypothèses mêmes de la règle de Taylor. Celle-ci admet l’hypothèse d’efficience des marchés financiers de E. Fama (1970), qui implique entre autres une déconnexion totale entre la sphère financière et la sphère monétaire, ce qui explique pourquoi Taylor n’intègre pas la sphère financière dans son raisonnement (la politique monétaire n’aurait aucun effet sur l’évolution du prix des actifs financiers). Cette négligence vis-à-vis de la sphère financière et ses conséquences sont l’objet de l’article de B. d’Intignano (L’instabilité monétaire, 2003) : selon elle, puisque sphère monétaire et sphère financière sont nécessairement reliées par le taux d’intérêt, le maintien de taux d’intérêt proches de la ZLB conduit à la formation de bulles spéculatives sur différents marchés, et par exemple sur celui de l’immobilier. En d’autres termes, si la règle de Taylor a pu juguler efficacement l’inflation dans les pays développés durant la Grande Modération, elle l’a fait en reportant les déséquilibres nominaux sur la sphère financière, et a donc largement contribué à la crise financière puis économique de 2008.

 

Pourrait-on modifier cette règle ?

Adapter la règle de Taylor aux enjeux modernes de stabilité non seulement monétaire mais aussi financière semble nécessaire. Intervient alors J. Couppey-Soubeyran qui, dans l’article « La coordination entre politique monétaire et politique macroprudentielle », propose une version « augmentée » de la règle de Taylor. Celle-ci se voit donc « augmentée » d’un nouveau coefficient γ (gamma) qui indique le degré d’importance de la stabilité financière dans les objectifs fixés par la Banque centrale.

On a alors : it = r + πt + αt − π) + β(yt − y) + γ(st− s).

J. Couppey-Soubeyran ajoute également st − s, qui représente la différence entre le degré de stabilité financière observé et le degré de stabilité optimal. L’adoption d’une telle règle par les banques centrales permettrait donc en théorie de juguler aussi bien l’inflation que l’accumulation de déséquilibres dans la sphère financière et d’éviter une crise comparable à celle de 2008. Concrètement, lorsque l’on observe l’apparition de certains déséquilibres financiers, la différence entre st et s augmente, et ainsi, les taux d’intérêt fixés par la Banque centrale (it) sont amenés à augmenter, ce qui devrait mettre un terme, ou du moins ralentir l’accumulation de déséquilibres, préservant de fait le système financier.

 

Conclusion et légère critique

L’approche de J. Couppey-Soubeyran pourrait donner aux banques centrales une nouvelle boussole en matière de politique monétaire, une boussole fiable, moderne et qui ne perdrait pas le Nord (ici, le Nord = la stabilité financière). Ce nouvel outil ne remplace en aucun cas les autres instruments de politique microprudentielle et macroprudentielle déjà mis en œuvre dans différents pays : il agit en complémentarité avec ces derniers. Cela est d’autant plus vrai dans le cas de la BCE.

En effet, la zone euro ne se caractérise pas par un seul et unique cycle financier synchrone mais par plusieurs cycles. On distingue trois grands groupes de pays : ceux où le cycle financier est de faible amplitude (Autriche, Belgique, France, Portugal, Italie, Pays-Bas et Finlande), ceux où l’amplitude est forte (Espagne, Grèce, Irlande) et ceux qui ne se rangent dans aucune de ces deux catégories, comme l’Allemagne. Dès lors, ajouter une unique cible financière à la règle de politique monétaire de la BCE, qui s’applique uniformément à tous, pourrait avoir les effets contracycliques escomptés dans certains pays, tout en ayant des effets procycliques dans d’autres, de quoi nourrir encore davantage les divergences économiques entre pays européens.

Partager.
Benjamn Janny

Les commentaires sont désactivés.