L’économie politique néoclassique, fait-elle l’apologie du capitalisme ? (2ème partie)

par Paul Jael
jeudi 21 janvier 2021

Depuis le troisième quart du dix-neuvième siècle, l’école néoclassique domine impérialement la théorie économique. Son origine remonte à l’énoncé de la théorie de l’utilité marginale par Jevons et Menger (1871) ainsi que Walras (1874), quoi que des précurseurs les aient devancés. Depuis longtemps, son hégémonie est presque totale.

Elle se voit régulièrement reprocher que ses lois économiques soutiennent le système économique capitaliste ou à tout le moins l’économie de marché.

Le 16/01/2021 était postée la première partie de cette analyse qui était consacrée à la microéconomie. Voici la SUITE consacrée à la macroéconomie.

2- Macroéconomie

Ici, le potentiel idéologique de l’économie politique concerne plutôt telle politique économique que tel système économique. Mais comme la politique concernée est celle du « laisser faire », elle est directement branchée sur les fondements du capitalisme.

2.1- L’impossibilité d’une crise de surproduction

Lorsque l’école néoclassique prit le relai de l’école classique à la fin du dix-neuvième siècle, elle fit table rase de la microéconomie mais conserva la macroéconomie. A l’époque, seuls trois économistes avaient reconnu la possibilité d’une surproduction généralisée : Sismondi, Malthus et Marx. Les autres adhéraient à la « loi des débouchés » de Jean-Baptiste Say (1767-1832) : « les marchandises achètent des marchandises ». Apparemment, cette loi est logique : toute production crée du revenu ; donc il doit y avoir suffisamment de revenu pour acheter toute la production. Certes, de mauvaises prévisions peuvent causer des excès sur un marché mais ils sont compensés par un déséquilibre inverse sur un autre marché. La surproduction ne peut donc pas être générale. Pourtant la réalité semble résister à cette logique.

La première étude approfondie du cycle des affaires date du début du XXème siècle et est le fait d’Albert Aftalion (1874-1956), un économiste hétérodoxe. Des grandes figures néoclassiques se sont aventurées dans la macroéconomie, principalement Wicksell, Fisher et Pigou. Ils se sont intéressés à la monnaie et à l’inflation, mais pas au chômage et à la production. Entretemps, les économistes disposaient d’une version algébrique de la loi des débouchés, appelée « Loi de Walras » basée sur la même idée que l’interdépendance des marchés représente un processus à somme nulle : les écarts négatifs doivent être compensés par des écarts positifs.

Puis est arrivée la grande dépression des années trente et dans son sillage la révolution keynésienne. John Manyard Keynes (1883-1946) avait déjà pas mal publié auparavant, mais sa « Théorie générale » (1936) rompt avec l’orthodoxie en montrant que le laisser faire peut mener au sous-emploi et que la solution peut résider dans l’intervention de l’Etat. La théorie keynésienne est en dehors de notre sujet. Ce qui importe ici, c’est le bouleversement de la macroéconomie qui en est résulté. Les tenants du laisser faire ne peuvent plus se contenter d’ignorer les fluctuations de la production et le chômage. Il faut maintenant montrer que ceux qui veulent combattre ces maux par la politique monétaire ou la politique budgétaire sont au mieux impuissants et au pire aggravent la situation.

Le mouvement anti-keynésien est venu en deux vagues : d’abord, les « monétaristes » avec Milton Friedman (1912-2006) à partir de la fin des années 1950. Puis les « nouveaux classiques  » avec Robert Lucas (1937-) à partir du début des années 1970. Tous les économistes de ces écoles sont profondément néoclassiques. Milton Friedman est plutôt disciple de Marshall et de Fisher ; Lucas plutôt de Walras. L’un des leitmotivs des nouveaux classiques est précisément d’assurer les « microfondations » à la macroéconomie : il s’agit d’ériger les théorèmes de la microéconomie en fondation de ceux de la macroéconomie. Une prétention en contradiction avec l’optique de Keynes qui voulait assurer une certaine autonomie à la macroéconomie.

La Théorie générale présente une analyse statique. Elle ne peut donc suffire à expliquer le cycle, qui est un processus dynamique, mais elle offre des clés de compréhension. Des économistes keynésiens ont voulu lui apporter un complément dynamique. Ainsi, Samuelson et Hicks se sont emparés du concept d’Aftalion, l’accélération de la demande dérivée qu’ils ont combiné avec le multiplicateur keynésien pour expliquer le cycle conjoncturel. L’accélérateur, c’est l’idée que les fluctuations légères de la demande de biens de consommation génèrent des fluctuations amplifiées de la demande de biens d’investissement. L’économie est alors en proie à des convulsions oscillatoires. Mais ce n’est pas ce sujet qui opposait keynésiens et monétaristes. Négligeant ces processus dynamiques essentiels, le débat s’enflammait à propos questions subalternes comme la trop fameuse « courbe de Phillips ». Cette courbe d’inspiration keynésienne reconnaît à l’Etat un pouvoir d’arbitrage entre le chômage et l’inflation, avec l’idée qu’une inflation modérée permet de combattre le pire des deux maux, le chômage. Les antikeynésiens nièrent la réalité de cet arbitrage. Pour les monétaristes, après une brève diminution, le chômage retourne à son taux naturel[1], un de leurs concepts essentiels. Mais l’inflation ne se résorbe pas ; d’où la lutte contre le chômage aboutit à une accélération sans fin de l’inflation. Le scénario est encore pire chez les nouveaux classiques : l’inflation ne stimule l’économie et l’emploi que si elle n’était pas anticipée par les agents économiques. En vertu de l’hypothèse des « anticipations rationnelles » qui sert d’étendard à cette école, les agents ne font pas d’erreurs systématiques dans leurs anticipations. Pour réussir sa relance, la banque centrale doit donc les surprendre, les prendre en traître. Il s’agit d’ailleurs d’une fausse réussite, puisque le taux de chômage reviendra inexorablement à son niveau naturel. Comme on le voit, toute politique visant à faire régresser le chômage est appelée à échouer.

A la fin du XXème siècle, les nouveaux classiques sont devenus l’école dominante en macroéconomie. Sur quelle base ces économistes nient-ils que la création monétaire puisse stimuler l’économie ? Pour le comprendre, il faut d’abord visualiser comment ils s’imaginent qu’elle y parviendrait si c’était possible. Elle y parviendrait par ce que les néoclassiques appellent l’illusion monétaire, c’est-à-dire le fait que les agents se sentent plus riches ou surévaluent les opportunités de gain lorsque leur encaisse nominale augmente alors que l’augmentation concomitante des prix fait stagner l’encaisse réelle. Evidemment, les agents rationnels néoclassiques ne sont pas sujets à l’illusion monétaire[2], et d’autant moins lorsqu’on fait jouer l’hypothèse des anticipations rationnelles. Donc, si les autorités arrosent l’économie de monnaie, les salariés, comprenant qu’une hausse du niveau général des prix les attend, vont augmenter leur salaire de réserve  ; c’est ainsi que les économistes appellent le niveau de salaire minimal pour inciter à entrer sur le marché du travail. La monnaie supplémentaire servira à faire la même chose qu’avant avec des prix supérieurs. Bref, un coup d’épée dans l’eau.

Les nouveaux classiques considèrent que l’hypothèse des anticipations rationnelles est leur hypothèse principale, mais il n’en est rien ; il s’agirait plutôt d’une hypothèse paravent qui cache leurs deux hypothèses principales :

Keynes avait également consacré un chapitre de la Théorie Générale à la théorie quantitative, mais son interprétation de l’équation est totalement différente. L’effet d’une variation de M dépend de l’état de la demande globale qui est le moteur de l’économie. Si elle est anémique, l’injection de monnaie stimulera la demande sur les marchés et mettra des inactifs au travail. La variation de M se transmet alors principalement à T. Au fur et à mesure que la demande augmente et avec elle l’activité, les variations de M se transmettront de moins en moins à T et de plus en plus à P.

Selon ses promoteurs, l’hypothèse des anticipations rationnelles a pour corollaire que les anticipations des agents correspondent à ce qu’énonce la théorie pertinente[4]. Mais de quelle théorie s’agit-il ? La théorie quantitative, bien-sûr et pas dans sa version keynésienne. Il ne faut donc pas s’étonner que les anticipations rationnelles aboutissent toujours à dédaigner les signaux monétaires.

Puisque tous les marchés y compris celui du travail sont toujours à l’équilibre, il n’y a jamais d’’offre excédentaire de travail. Le chômage n’est donc pas subi par ceux qu’il touche mais choisi. « Choisi » ne signifie pas nécessairement qu’ils ne souhaitent pas travailler. L’explication la plus commune est qu’ils surestiment le salaire d’équilibre et continuent à chercher un emploi leur offrant le salaire plus élevé qu’ils imaginent prévaloir. C’est ainsi que l’ancienne thèse de l’impossibilité du chômage involontaire continue de régner.

Cette théorie, sert-elle le capitalisme ?

On comprend en quoi cette conception flatte le capitalisme. En fait, le système ne serait jamais responsable s’il y a du chômage. Les chômeurs n’ont qu’à s’en prendre à eux-mêmes.

La question du chômage est liée à la problématique dite de la « rigidité des salaires ». Les économistes distinguent le salaire nominal, mesuré en unités monétaires et le salaire réel qui tient compte du niveau des prix et ne varie par exemple pas lorsque le salaire nominal et les prix évoluent au même rythme. Il y a donc deux types de rigidité : la rigidité nominale et la rigidité réelle. Le prix dont les ajustements doivent équilibrer le marché du travail est évidemment le salaire réel et non le salaire nominal.

La Théorie Générale considère que le salaire nominal est rigide. Keynes raisonne ainsi : les salariés préfèrent perdre du pouvoir d’achat par une augmentation du niveau général des prix que par une baisse du salaire nominal, car la première met tous les salariés sur pied d’égalité alors que la seconde menace la place du salaire individuel dans la hiérarchie des salaires. Mais il n’y est pas question de rigidité du salaire réel. Par contre, les tenants de la macroéconomie classique ont monté en épingle la rigidité du salaire réel. Ce sont ces rigidités qui empêchent le système d’être à l’équilibre. Quelle est l’origine de ces rigidités ? Le plus souvent, des facteurs institutionnels et politiques sont incriminés. Par exemple des politiques gouvernementales inappropriées ou le syndicalisme. L’idée est toujours de préserver l’innocence du système économique en soi.

Il ne fait aucun doute que des facteurs institutionnels peuvent perturber le système, mais l’idée maîtresse des nouveaux classiques est qu’en dehors de ce type de perturbations, l’économie est toujours à l’équilibre, une affirmation mille fois répétée mais jamais prouvée.

2.2- Une théorie du cycle conjoncturel

Jusqu’à présent, les modèles macroéconomiques évoqués étaient statiques, à l’exception de l’accélération de la demande dérivée. Mais le chômage étant en grande partie conjoncturel, il est évident qu’il ne peut être appréhendé complètement que par une théorie dynamique. Il faut attendre 1982 pour que les nouveaux classiques échafaudent puis développent une théorie du cycle des affaires. C’est un article de Finn Kydland (1943‑) et Edward Prescott (1940‑) qui lance la théorie dite du « cycle réel », en abrégé RBC (real business cycle). Le lecteur s’interroge sans doute quant à la présence de l’adjectif « réel » dans cette dénomination. Elle indique que la cause du cycle est à trouver dans le secteur réel de l’économie, celui qui produit, et non dans la monnaie, dont on sait que les nouveaux classiques sont très attachés à la thèse de sa neutralité. M n’est censé influencer que P.

Pour bien comprendre cette théorie, remettons-la dans son contexte. Les deux aspects dynamiques de la macroéconomie sont la croissance et la conjoncture. La théorie néoclassique de la croissance avait pris un peu d’avance sur celle du cycle conjoncturel. Les années 1960 ont vu émerger plusieurs modèles qui cherchaient à définir et à déterminer une espèce d’équilibre dynamique, c’est-à-dire une relation entre les grandes variables macroéconomiques[5] qui permette au revenu national, au capital et à la consommation d’augmenter de concert à un taux constant d’année en année, tout en maximisant soit la consommation soit l’utilité sociale dans le futur. Les économistes appellent « âge d’or » ou « steady state » une situation caractérisée par cette continuité tranquille et « règle d’or » la relation entre les variables qui permet de maximiser la consommation d’un âge d’or. La croissance du revenu dépend de deux facteurs : le progrès technique et l’intensité capitalistique (rapport capital/travail) qui résulte de l’accumulation du capital. Beaucoup de modèles tendaient à privilégier le second par rapport au premier ; le taux d’investissement y joue donc un rôle crucial.

Les RBC entendent greffer sur un modèle de ce type le phénomène qui bousculera l’ordre de l’âge d’or, qui y introduira les fluctuations. Ce phénomène, c’est le progrès technique et plus précisément une hypothèse à son sujet, en l’occurrence le fait qu’on lui prête un caractère erratique. Pour désigner ces variations aléatoires, les économistes parlent de « chocs technologiques ». Comme il s’agit de modèles dynamiques, le temps est découpé en périodes.

Le modèle RBC de base s’articule autour de deux fonctions appartenant chacune à une catégorie dont les économistes néoclassiques raffolent :

  1. Une fonction de production de type Cobb-Douglas. Elle comprend les deux ingrédients habituels déjà évoqués plus haut, la main d’œuvre et le capital ainsi qu’un facteur λ qui les multiplie et qui représente le progrès technique : lui-même se décompose en plusieurs sous-facteurs : une composante constante, une composante aléatoire mais à effet durable et une composante aléatoire très temporaire. Le caractère aléatoire est accru par le fait que les agents n’ont qu’une perception brouillée de ces chocs.
  2. Une fonction d’utilité intertemporelle (c’-à-d. portant sur une longue durée, en fait infinie) qui est à la fois celle d’un ménage représentatif et de l’ensemble de la population. L’utilité dépend positivement de la consommation et du temps de loisir, qui est le temps de non-travail. L’offre de travail varie positivement avec sa rémunération et, par-là, avec la productivité et donc avec les chocs technologiques positifs, ce qui met nos deux fonctions en interaction. Un paramètre essentiel de cette fonction est ce que les économistes appellent « l’élasticité de substitution intertemporelle du loisir », c’-à-d. la facilité avec laquelle les ménages altèrent leur répartition du temps entre le loisir et le travail d’une période à l’autre. Les modèles RBC postulent que cette élasticité est très élevée, autrement dit que les ménages sont flexibles dans leur emploi du temps.

Ces deux fonctions sont maximisées selon les règles néoclassiques habituelles, ce qui détermine les actions des agents : offre de travail, épargne et investissement, consommation. L’idée qui sous-tend l’ensemble est qu’un choc technologique positif pousse les ménages à travailler plus cette période pour profiter de ce que le travail est plus rémunérateur ; les chocs négatifs ont l’effet inverse. Durant toutes les périodes, tous les marchés restent en équilibre.

Ce système est transposé dans un travail économétrique. Les économistes « calibrent » le modèle en donnant des valeurs plausibles à ses différents paramètres et simulent des chocs technologiques. Ils examinent ensuite si les variables du modèle se comportent comme les variables équivalentes dans les séries statistiques réelles. Kydland et Prescott furent plutôt satisfaits de la validation empirique, tout en reconnaissant que le modèle sous-estime la variabilité des heures prestées, une lacune commune à la plupart des modèles RBC.

Les modèles RBC, servent-ils le capitalisme ?

Les très dérangeantes fluctuations du revenu national se voient désigner un coupable : le hasard. Le hasard des chocs technologiques. Un hasard qui s’impose de l’extérieur et contre lequel on ne peut rien. On ne va quand-même pas renoncer au progrès technique pour échapper au cycle.

Le système capitaliste ne fait montre d’aucune faille. Et le chômage ? Même pas. Il n’y a pas de chômage involontaire. Il y a juste une volonté des travailleurs de privilégier les loisirs lorsque les chocs technologiques rendent le travail moins rentable.

En fait l’économie est toujours à l’optimum. L’équilibre général exprime la compatibilité des actions que prennent les agents pour maximiser chacun son utilité. Indépendamment de son caractère apologétique, l’affirmation d’une optimalité permanente heurte le bon sens qui ne peut que constater une perte de bien-être pendant les crises.

Y a-t-il acharnement démonstratif ?

On retrouve le défaut habituel des nouveaux classiques. L’équilibre est postulé alors qu’il ne devrait intervenir que comme résultat du processus.

Les adversaires des modèles RBC ont épinglé les faiblesses suivantes :

Une théorie du cycle plus ancienne : les Autrichiens

Plus d’un demi-siècle avant les RBC, l’école autrichienne produisit en précurseur une première théorie néoclassique du cycle. Dans des ouvrages parus en 1929 et 1931, Friedrich Hayek (1899-1992) énonce une théorie monétaire du cycle. La cause essentielle du cycle est à trouver dans l’excès de crédit monétaire offert par les banques à l’économie. Il est curieux de constater à quel point deux théories néoclassiques peuvent s’opposer.

Après une dépression, les banques se laissent aller à l’excès de crédit, principalement à destination du secteur productif. Le crédit est en excès lorsque pour trouver des emprunteurs, les banques abaissent leur taux d’intérêt (dit taux monétaire) en dessous du taux naturel correspondant à la rentabilité du capital productif. Ceci stimule la demande aux industries produisant des équipements. Les prix relatifs de ces biens augmentent et leur production s’élève, détournant des ressources affectées antérieurement aux biens de consommation. Dans le langage des Autrichiens, on assiste à l’allongement des détours de la production (accroissement de l’intensité capitalistique). L’offre de biens de consommation peine à suivre leur demande stimulée par la reprise ; leur prix s’élève à son tour par rapport à celui des biens de production. Cette hausse motive les entreprises à plus investir dans les biens de consommation au détriment des biens de production. Maintenant, les détours de la production se raccourcissent. Hayek note une asymétrie : l’allongement des détours stimule l’emploi ; son raccourcissement le fait chuter, car les engagements dans le secteur des équipements ne compensent pas les licenciements dans le secteur de la consommation. C’est le retournement conjoncturel : l’allongement de la période de production avait provoqué l’expansion ; son raccourcissement cause la dépression. Cette suite de gonflements et dégonflements de l’intensité capitalistique au gré du cycle sera appelé « effet d’accordéon » par Nicholas Kaldor, adversaire de cette théorie.

Le scénario eût été différent si l’accroissement initial des investissements avait été financé par une épargne volontaire en lieu et place du crédit. La demande des biens de consommation ne se serait pas accrue dans la deuxième phase car consommer moins eût été un choix. Par contre, le crédit a imposé aux consommateurs ce qu’Hayek appelle une « épargne forcée », par la hausse des prix des biens de consommation qu’il a induite. Le crédit monétaire est dangereux car il crée des incitations aux entreprises et aux consommateurs qui sont en porte à faux avec les forces réelles de l’épargne et de la productivité. Il faut veiller à perturber ces forces fondamentales le moins possible.

Cette théorie, sert-elle le capitalisme ?

Ici encore, le cœur du système capitaliste, le secteur productif, est « innocenté ». Certes, les banques appartiennent également au système, mais leurs excès peuvent s’expliquer par la politique monétaire trop accommodante de la banque centrale, cédant à la démagogie des politiciens qui veulent relancer l’économie pour des raisons électoralistes. Aux yeux de Hayek, l’inflation est pire que le chômage. Le coupable est donc au moins un peu le politique qui, aux yeux de Hayek, fait tout mal alors que le marché fait tout bien.

Irving Fisher, la dette et la déflation

Il m’est impossible d’être exhaustif. Les théories du cycle sont plus nombreuses qu’il ne m’est possible d’en rendre compte. Parmi elles, l’objectivité commande de rapporter un exemple positif. Irving Fisher (1867-1947) est un des plus grands économistes néoclassiques. En octobre 1929, il prophétisait encore qu’une chute considérable des cours de bourse était impossible et que ceux-ci s’élèveraient encore d’ici quelques mois. On sait ce qu’il en advint et, comme tant d’autres, lui-même essuya personnellement des pertes ruineuses. L’épreuve le rendit plus raisonnable. En 1933, il publia un article énonçant une théorie du cycle très intéressante qui explique celui-ci par la combinaison de la déflation et de l’endettement privé excessif.

2.3- L’efficience des marchés financiers

Les marchés financiers sont l’une des bases du capitalisme. Ils sont le lieu où se négocie et se détermine la valeur d’un des deux facteurs de production génériques, qui plus est, le facteur de production-roi. Il est donc essentiel que ce morceau de fondation du système fonctionne bien, faute de quoi il pourrait engendrer des dérèglements économiques graves, par exemple des bulles spéculatives. Mais qu’est-ce que bien fonctionner pour un marché financier ? Le prix des actifs détermine pour l’investisseur son rendement et pour la firme le coût du financement. Pour qu’il induise les bonnes décisions, il faut qu’il se situe au juste niveau. Selon les économistes, le niveau optimal correspond à la somme des dividendes futurs actualisés à un taux qui inclut une prime, fonction du risque de l’actif. Les dividendes futurs n’étant pas connus, c’est évidemment d’une estimation de ceux-ci qu’il s’agit.

Eugene Fama, l’initiateur de ce concept, écrit : « A market in which prices always ‘fully reflect’ available information is called ‘efficient’ »[7]. S’il en est ainsi, les cours de bourse ne fluctuent que parce qu’arrivent de nouvelles informations. Dans cet article publié en 1970, il tente une synthèse des études empiriques qui testent ce critère et le conclut, optimiste : « In short, the evidence in support of the efficient markets model is extensive (and somewhat uniquely in economics) contradictory evidence is sparse ». L’hypothèse des marchés efficients (HME) est largement partagée parmi les économistes néoclassiques.

Historiquement, l’HME apparaît pour la première fois de façon implicite dans un article publié en 1964 par William Sharpe où il expose son « Capital Asset Pricing Model ». La conclusion fondamentale est que “(The investor) may obtain a higher expected rate of return on his holdings only by incurring additional risk”. Pour que cette affirmation soit vraie, il faut en effet que les prix des actifs soient aussi parfaits que le permet l’information dont disposent les investisseurs.

L’HME, sert-elle le capitalisme ?

Cette hypothèse n’apporte certes pas au capitalisme une justification existentielle, mais elle dédouane le marché des capitaux de toute responsabilité dans les accidents économiques possibles, ce qui est tout à l’avantage du système.

Y a-t-il acharnement démonstratif ?

Pour obtenir ses conclusions, Sharpe est amené à formuler une double hypothèse :

Ces hypothèses sont évidemment irréalistes comme le reconnaît d’ailleurs l’auteur, mais c’est un principe assumé chez les économistes néoclassiques de considérer le réalisme des hypothèses comme secondaire.

Comment les économistes évaluent-ils le risque d’un actif ? Un peu de statistique est nécessaire pour le comprendre. Prenons les observations passées du rendement de l’actif X (une vingtaine ou une centaine d’occurrences par exemple). Pour synthétiser cet ensemble de données, on a deux paramètres essentiels : la moyenne et l’écart-type. La moyenne, je présume que tout le monde en connaît le principe. L’écart-type, c’est l’écartement moyen par rapport à la moyenne. Un écart-type plus élevé signifie que la variabilité, la dispersion est plus grande. Les économistes en ont fait la variable qui mesure le risque.

Ce procédé me paraît critiquable, car il mesure un type de risque, le désagrément de variations amples dans le revenu. Mais ce que craignent le plus les investisseurs, c’est de subir des pertes. Pertes parce que l’entreprise tombe en faillite ou parce que les variations du cours rendent le rendement négatif. Steve Keen illustre ce problème par un exemple[8] : on a le choix entre un investissement de revenu espéré de 3% avec un écart-type de 3% et un investissement de revenu espéré de 9% avec un écart-type de 6%. Lequel est le plus risqué ? Pour l’économie néoclassique, le second. Pas sûr que le public le ressente ainsi, car la probabilité que le premier encoure des pertes est supérieure.

En 1921, Knight introduisait une distinction majeure :

La thèse de Knight, néoclassique-répétons-le- était que la vie économique est principalement caractérisée par la première et non par le second. Cette opinion est reprise par les keynésiens. Par contre, l’économie néoclassique moderne s’évertue à transformer l’incertitude en risque, pour pouvoir l’intégrer (mais sous une forme mutilée) dans ses équations. La vraie incertitude est absente des modèles néoclassiques. C’est ce qui explique l’hypothèse que les investisseurs sont capables de déterminer exactement la moyenne et l’écart-type des dividendes futurs. A mon avis, non seulement cette préscience n’existe pas, mais les investisseurs n’essaient pas vraiment, car ils sentent que c’est mission impossible. Il est vrai que les nouvelles informations leur servent à abaisser ou élever les cours en fonction de leur contenu pessimiste ou optimiste. Mais le niveau est arbitraire. Investir implique l’acceptation d’un prix. Mais dans l’incertitude, c’est l’instinct et le besoin d’agir qui dominent, ce que Keynes appelait « animal spirit ».

André Orléan a lui aussi critiqué l’HME, notamment sa validité empirique. Vu son abstraction, celle-ci ne peut être testée qu’indirectement, sur ses corollaires. Un premier test porte sur la non-prédictibilité des résultats, la marche aléatoire, le fait que des variations de cours successives sont statistiquement indépendantes. L’HME ne s’y défend pas trop mal, encore que des anomalies régulières existent mais la plupart des analystes considèrent ce test comme trop influencé par divers facteurs extérieurs à la question. Un autre corollaire testable est qu’on ne peut pas battre le marché pour un risque donné, mais sa faiblesse est l’impossibilité de mesurer parfaitement le risque.

Orléan mentionne deux tests que l’HME rate manifestement :

Keen et Orléan s’accordent sur la principale faille de l’HME. Ses modèles sont unidirectionnels ; ils prennent en compte uniquement l’effet des décisions individuelles sur le prix du marché mais ignorent la détermination en sens inverse. Or il est évident que les investisseurs se soucient de l’opinion qu’ils croient prévaloir sur le marché. Chacun achète et vend en fonction de ce qu’il pense que les autres intervenants feront, une idée déjà présente dans la Théorie générale. Il en résulte une espèce ce cercle vicieux qui peut déconnecter les cours de bourse des fondamentaux économiques pendant des périodes plus ou moins longues. Beaucoup d’acteurs visent d’ailleurs les gains à court terme. Certes, lorsque les cours empruntent la mauvaise direction, une correction interviendra tôt ou tard (parfois très tard), mais chacun espère qu’il sera parmi les derniers à profiter de la bulle spéculative. Keynes compare cette situation à un jeu de chaises musicales. Lors du retournement, ceux qui désinvestissent les premiers perdent le moins et donc, la chaise musicale continue.

A mon avis, si l’irrationalité domine souvent les marchés financiers, ce n’est pas tant parce que les agents manquent de rationalité que parce qu’ils sont condamnés à une sous-information tellement radicale que la rationalité se révèle impuissante. De plus, si l’information nécessaire était disponible, la capacité de maîtriser une telle masse ferait défaut, même à l’ère de l’informatique. Ajoutons à cela la nature paradoxale de l’esprit humain, qui manifeste de l’aversion pour le risque mais est en même temps tenté par le jeu (pari). Ces conditions rendent l’efficience des marchés impossible.

L’inefficience des marchés financiers est dangereuse. Ce n’est sans doute pas un hasard si les deux principales crises de l’ère moderne (1929 et 2008) furent précédées d’une bulle spéculative.

Keynes consacre le chapitre 12 de la Théorie générale aux marchés financiers. Il s’appelle « L’état de la prévision à long terme », mais il aurait pu s’appeler « L’inefficience des marchés financiers ». Une lecture intéressante pour qui s’intéresse à la question.

3- Conclusion

J’ai examiné cinq théorèmes néoclassiques qui se prêtent à une interprétation justifiant le système capitaliste ou le laisser-faire, mais j’aurais pu en choisir bien d’autres. L’interprétation qui en est faite doit être distinguée du théorème lui-même, mais les hypothèses posées pour démontrer ces théorèmes sont parfois tellement artificieuses qu’elles semblent conçues ad hoc.

Je nuancerais toutefois cette dernière affirmation. Car la motivation profonde de ces hypothèses irréaliste est au moins partiellement qu’elles se prêtent à la modélisation mathématique. Or les économistes tiennent beaucoup à cette mathématisation, car elle permet à leur discipline d’apparaître comme plus scientifique.

 

[1] Ce taux naturel est du chômage frictionnel (dû au temps nécessaire pour retrouver un emploi) et ne contredit donc pas la thèse de l’impossibilité du chômage involontaire.

[2] Ils ne sont sensibles qu’à l’encaisse réelle. Je ne conteste personnellement pas ce point de vue.

[3] Cette théorie remonte aux premiers temps de l’économie politique, mais c’est Fisher, en 1911, qui la présentera de la façon la plus systématique.

[4] Voici encore une affirmation que je ne conteste pas.

[5] Principalement : le revenu national, la consommation, le taux d’intérêt, l’intensité capitalistique (rapport capital/travail), le taux d’épargne, l’accroissement de la main d’œuvre et la part des revenus du capital dans le revenu national.

[6] Jusqu’en 1957, les fonctions de production agrégées ne comportaient que deux entrées : le capital et le travail. Solow, le premier, introduisit un troisième facteur. Sur une série statistique de 1909 à 1949, il constate qu’une part importante de la croissance de la production n’est pas attribuable au travail ou au capital. Le « résidu de Solow » est le facteur multiplicatif qui capture cet écart. Le progrès technologique constitue une part importante de l’explication.

[7] Fama “Efficient Capital Markets : A Review of Theory and Empirical Work”, The Journal of Finance, 1970, Vol. 25, No. 2, p.383 et p.416.

[8] Keen, L’imposture économique, Editions de l’atelier, 2014, p. 326.

[9] Orléan, L’empire de la valeur, Editions du seuil, 2011, pp. 297-298


Lire l'article complet, et les commentaires