Les modèles économiques ne sont en rien des boules de cristal

Après la faillite de Lehman Brothers en septembre 2008, la reine d’Angleterre formula publiquement la question qui brûlait les lèvres de toute la société civile : « Economistes, pourquoi n’avez-vous pas su prévoir la crise ? » Les économistes ont fait amende honorable et ont enrichi leurs modèles, mais beaucoup répètent inlassablement que ces modèles ne sont en rien des boules de cristal. En juin, l’économiste du FMI Olivier Blanchard rappelait encore sur les réseaux sociaux que « la science économique ne sert pas avant tout à prévoir. Les économistes étudient la manière dont le système économique fonctionne, examinent les politiques ».

Pourtant, le développement de la macroéconomie comme champ scientifique est en réalité étroitement lié à l’essor d’une industrie de la prévision au début du XXe siècle. On cherchait en particulier à prévoir les rendements agricoles, les cycles de croissance, l’évolution des cours boursiers. Certains s’en remettaient à leur intuition, d’autres, appelés les « chartistes », représentaient graphiquement une série de variables pour tenter d’identifier les retournements de tendance. Mais les résultats n’étaient « pas meilleurs que ce qu’on obtiendrait en s’en remettant à la chance pure », pestait l’homme d’affaires américain Alfred Cowles (« Can Stock Market Forecasters Forecast ? », Econometrica 1/3, 1932). Il fonda donc un institut, la Cowles Commission for Research in Economics, dont la mission était de développer des modèles statistiques permettant d’extrapoler les données accumulées sur les comportements et les systèmes économiques, et reposant sur l’identification des « lois » mathématiques auxquelles obéiraient les économies, conçues comme des systèmes mécaniques.

La seconde guerre mondiale poussa les gouvernements à développer des statistiques publiques, comme le PIB, l’inflation, le chômage, et à croire qu’ils pouvaient contrôler et planifier, au moyen de politiques de relance et de stabilisation, l’évolution de ces variables. Au côté des institutions privées se développèrent des organismes publics de prévision (par exemple, en France, les services de la conjoncture du ministère des finances ou de la Banque de France), chargés à la fois de prévoir l’évolution du PIB ou du chômage à un an, mais aussi d’expliquer comment ceux-ci évolueraient « si » on augmentait le taux d’impôt sur le revenu de 2 %, « si » l’on baissait les taux d’intérêt de 0,5 %, etc. (ce que l’on appela à l’époque la « prévision conditionnelle », et plus tard l’évaluation des politiques publiques). Ce qui suppose une compréhension détaillée des mécanismes de causalité à l’œuvre dans un système économique.

Mais les économistes ne s’accordaient pas sur un type de modèle qui permettrait à la fois de prévoir et de planifier. Les keynésiens, emmenés par Lawrence Klein (1920-2013), pensaient que la solution résidait dans le développement de gros modèles mathématiques dont les centaines d’équations tendraient à une « représentation photographique de la réalité ». Mais pour le chef de file des néolibéraux hostiles à une intervention active de l’Etat, Milton Friedman (1912-2006), il suffisait de trouver quelques équations qui permettent de décrire les mécanismes autostabilisateurs de l’économie. Peu importe le réalisme du modèle, ce qui compte, c’est l’exactitude de la prévision qu’il génère.
<3>Une critique encore plus radicale

Dans les années 1970, l’économiste Robert Lucas présenta une critique encore plus radicale des gros modèles mathématiques développés par les gouvernements : les agents économiques, dit-il, ne réagissent pas aux politiques économiques de manière mécanique, mais adaptent constamment leurs actions aux annonces de politique économique de l’Etat. Ceci remettait en cause à la fois les politiques de stimulation budgétaire et monétaire, et la capacité de prévoir des économistes.

En réaction, ceux-ci développèrent de nouveaux modèles purement statistiques de prévision, ainsi que des nouveaux modèles d’analyse des politiques économiques reposant sur l’idée que les citoyens anticipent rationnellement, et que les marchés fonctionnent efficacement. Ce sont ces modèles qui ont été jugés inefficaces après la crise.

Les économistes s’accordent in fine sur le fait qu’il est impossible de prévoir précisément quand des événements rares auront lieu, et sous quelles modalités. Parce que les sociétés occidentales ont cherché à dompter le futur, les économistes ont construit des modèles permettant d’extrapoler des connaissances sur les comportements et les évolutions passées. Mais si le comportement des citoyens s’adapte en réponse à ces prédictions, si les structures des marchés et des économies se transforment constamment sous l’effet de nouvelles technologies, de la mondialisation ou des évolutions climatiques, alors extrapoler le passé pour saisir l’avenir est voué à l’échec.

En revanche, si des modèles plus réalistes et plus divers permettent de « voir » la montée de déséquilibres financiers ou d’inégalités, alors les économistes ont failli en se contentant de modèles trop pauvres pour ne serait-ce qu’envisager la possibilité de crises financières. Limite épistémologique, insuffisance théorique ou biais idéologique ? Dix ans après la faillite de Lehman Brothers, les économistes se disputent toujours sur les sources de leur incapacité à prédire les crises financières.

Béatrice Cherrier est économiste à l’université de Cergy-Pontoise et à l’Institute for New Economic Thinking.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *