Le Virus B. Crise financière et mathématiques
Lycéen, j’avais été très impressionné quand j’avais entendu qu’un objet, un caillou par exemple, peut se soulever spontanément « en apesanteur » ? Rien des lois de la physique ne l’interdit ; « il suffit » que tous ses atomes, animés constamment de mouvements aléatoires, se dirigent un instant vers le haut. Il n’est pas besoin d’invoquer la méditation transcendantale, mais seulement de faire appel aux lois de probabilité et au mouvement brownien. Cette probabilité est incommensurablement faible, mais pas strictement nulle, et celle que le phénomène se répète à l’instant suivant l’est aussi. Car, dans le mouvement brownien, l’historique ne joue pas, l’instant présent a oublié tout le passé. Ce comportement suit la « loi normale », ou loi de Gauss, figurée par la célèbre « courbe en cloche », où la probabilité décroît extrêmement rapidement dès que l’on s’écarte de la moyenne. La loi normale a donc la caractéristique qu'elle évite les événements anormaux ; elle représente le « hasard sage ». Et pourtant, nous voyons se répéter sous nos yeux des événements dont la probabilité était jugée infime – « le hasard sauvage » - et qui frappent par leurs conséquences démesurées, tempête exceptionnelle, éruption volcanique et tant d’autres.
Or c’est précisément cette loi de Gauss qui est à la base des modèles mathématiques utilisés couramment par la finance, en particulier dans le développement des « produits dérivés ». Dès 1863, Regnault observait que les fluctuations des cours de bourse suivent cette loi. Se basant sur cette observation, Bachelier, en 1900, présentait une première formulation mathématique de l’évolution des cours, largement reprise et développée plus tard. La statistique brownienne est devenue la règle et les événements « anormaux » - les « bulles » - ne sont pas pris en compte dans la construction du modèle d'évolution des marchés. La très grave crise qui secoue l’économie mondiale provient pourtant d’événements que les calculs estimaient hautement improbables, mais dont l’enchaînement a mené à la catastrophe.
C’est cette dérive qu’un actuaire, Christian Walter, et un journaliste scientifique, Michel de Pracontal, dénoncent dans ce petit livre, au titre ésotérique – le B de virus, dans le titre, renvoie au mouvement Brownien (Christian Walter et Michel de Pracontal, Le Virus B. Crise financière et mathématiques, Le Seuil, 2009, 128 p., 14 €). On trouve d’abord, dans les premiers chapitres, une analyse concise, mais très claire, du système bancaire, de ses bases et de ses dérives. Les instruments nouveaux, subprimes, titrisation ... sont expliqués. Pour les auteurs, la soumission aveugle à la loi de Gauss a complètement faussé les méthodes de prévision de l’évolution du marché. L’image est celle du conducteur d’une voiture surpuissante, qui ignore que son tachymètre, déréglé, lui indique 30 km/h alors qu’il roule à 150 km/h en abordant un virage dangereux. Il a cru être prudent, et la défaillance de ses outils d'observation va lui être fatale !
Un exemple frappant est donné dans le chapitre consacré à la chute, aux Etats-Unis, de Fanny Mae et Freddie Mac, les organismes semi-publics de crédit hypothécaire. Des produits de plus en plus complexes étaient censés réduire les risques pour les opérateurs, jusqu’au moment où le marché immobilier s’est effondré, dans une cascade de défaillances, y compris celles provenant d’imprudences de la puissance publique, pour des motifs politiques, et d'évaluations erronées des agences de notation. La fiction du comportement rationnel ne tenait plus. « La dérégulation, le laxisme de la puissance publique, l’utilisation massive de l’ingénierie financière et la cupidité de certains acteurs ont tous contribué à la dérive fatale ... Mais aucun de ces facteurs, pris isolément ni même leur réunion n’aurait suffi à provoquer la crise des subprimes. ...Il a fallu ... que l’appareil à mesurer les risques soit gravement défaillant ».
Un autre exemple est donné par l'utilisation de la « copule gaussienne », méthode d'appréciation des risques dus aux corrélations, due à David X. Li (2000). Elle conduisait à des calculs simples et a tout de suite été adoptée, mais, de l'aveu même de son auteur, elle n'était valable que dans des conditions régulières. Son usage abusif a conduit à des faillites retentissantes. Pourtant, les signaux existaient ; Benoît Mandelbrojt, l’inventeur des fractales, avait montré, à partir du comportement statistique des cours, que les écarts importants à la moyenne étaient beaucoup plus fréquents que prévus par la loi normale ; cette alarme n’avait pas été entendue.
Donc, pour les auteurs, il apparaît que les défauts de la théorie n’exonèrent pas les « quants », ces surdoués des mathématiques financières. Il ne s'agit pas seulement d'erreurs méthodologiques. Malgré ces avertissements, ils s'étaient obstinés : confiance démesurée en leur méthodes, emballement collectif y compris au plus haut niveau, recherche de gains immédiats. Aussi, oubli de ce qu'est un modèle mathématique : seulement une représentation approchée de la réalité d'un système, atome, pont ou galaxie, construite avec certaines hypothèses et simple étape dans le progrès de la connaissance. S'aventurer hors du domaine de validité de ces hypothèses, c'est risquer la faute, sans grande conséquence quand il s'agit de constructions intellectuelles, mais éventuellement catastrophique dans le monde réel si l'on fait du modèle un outil opérationnel !
Le paradigme de l'auto-régulation –la « main invisible » qui assure la stabilité de tout le système, credo de l'économie libérale, est à mettre en cause. Pour un observateur extérieur, ignorant de la finance mais connaissant un peu de la dynamique des systèmes, la stabilité d'un système complexe est loin d'être une propriété intrinsèque ; au contraire l'évolution naturelle présente souvent des ruptures soudaines –branchements, catastrophes- où la récupération d'un équilibre précédent est impossible. Il faut avoir introduit des éléments de régulation –des boucles de contre-réaction - pour tendre vers un état pseudo-statique. Il apparaît surprenant que des mathématiciens de haute volée aient ignoré ces données, pourtant communes et popularisées par la notion de chaos. Le concept de régulation prend une tournure politique et idéologique entre (néo)-libéraux et (néo)-keynésiens, il apparaît pourtant comme une nécessité pour un fonctionnement correct des marchés. Mais dans des systèmes aussi complexes que les marchés financiers, comment et où mettre en place les bons outils ? Nos auteurs, pourtant visiblement acquis à la régulation, n'insistent guère sur le danger de la confiance aveugle dans une stabilité naturelle.
L'ouvrage se conclut par une bibliographie abondante, renvoyant pour beaucoup à des textes s'adressant à des non-spécialistes, mais omettant d'indiquer ceux qui sont facilement accessibles, via Internet. Je recommande vivement ce livre, de lecture agréable, servie par un style direct, sans technicité ni formules mathématiques, malgré la complexité du sujet. Il constitue une excellente introduction pour comprendre l'origine et les raisons de la crise, même si le point de vue est un peu limité, centré sur l'usage abusif de la statistique gaussienne.
Pierre Baruch, Professeur émérite (physique), Université Denis Diderot – Paris 7
You can follow this conversation by subscribing to the comment feed for this post.