On s'interroge aujourd'hui avec une certaine inquiétude sur la forme et la nature de l'incertitude financière. Est-elle seulement exacerbée pendant une crise passagère ? Ou bien, par principe, le plus inattendu étant toujours possible, toute prévision est-elle vaine ? Les deux lieux communs escamotent l'essentiel : l'incertitude financière est permanente, malléable, résistante – ce n'est pas une abstraction que l'on pourrait évacuer au détour d’un calcul. Loin d'être constante, sa structure varie au cours de l'histoire : elle dépend des cadres institutionnels qui permettent la circulation et l'enregistrement de l'information économique.
En économie, les chiffres n’enregistrent pas seulement l’activité ou la valeur convenue lors d’un échange. Ils renvoient également aux conditions de la représentation de cette valeur ou de cette activité sous une forme chiffrée. Ces conditions sont une combinaison complexe de cadres institutionnels, de règlementations, mais aussi d’arbitrages fins tels que des écritures comptables. L’ensemble de ces règles et de ces conventions forme un cadre sur lequel on s’entend, et sur lequel on juge en général inutile de revenir.
Or si dans la pratique des affaires il est évidemment préférable de ne pas réinterroger sans cesse ces conditions, les économistes gagneraient à s’y intéresser davantage. Par formation, par habitude aussi, ils portent leurs prédilections vers le calcul. Ils ont ainsi tendance à oublier que la matière chiffrée n’est qu’une commodité abstraite.
Les institutions du calcul
Certes, il est des économistes attentifs aux institutions. Ils tentent de mesurer leurs effets, leur assignent des fonctions. Mais le point important ici ne touche pas l’objet qu’un savant combinerait à bonne distance, il touche l’idée même d’objectivation scientifique. Car l’abstraction formelle du phénomène étudié comporte nécessairement des transformations gouvernées par des conditions à la fois institutionnelles et conceptuelles.
Précisons : il ne s’agit pas exactement d’une altération du phénomène. Il n’y a pas altération, car il n’y pas de phénomène économique initial et pur qu’on perturberait par l’étude. Ce dont nous parlons ici, c’est bel et bien de la construction intellectuelle du phénomène. Par exemple, ce qui nous fait reconnaître une activité comme relevant du travail, et telle autre du loisir. Ou encore, la distinction que nous opérons entre un échange marchand et un échange non-marchand. Ou enfin, la différence établie par les économistes, en référence à des règles établies par des institutions comme le BIT ou l’INSEE, entre une situation de chômage et une situation d’activité. En poussant le raisonnement, on pourrait ainsi soutenir que ce que nous appelons chômage, une notion commune et sur laquelle tout le monde s’entend, n’est qu’une construction intellectuelle.
Il ne s’agit pas ici de jongler avec les paradoxes, mais de rappeler que la construction abstraite des objets étudiés par les économistes ne se gagne qu’au prix d’une combinaison de calculs et d’institutions.
Pour autant, la théorie économique revendique une visée scientifique. Il lui faut ainsi considérer sérieusement ses propres présupposés théoriques, et surtout se rappeler ceci : les chiffres ne sont que l’emprise la plus commode offerte par les phénomènes étudiés, rien de plus. À cet égard il faut souligner de réels progrès. Depuis une vingtaine d’années, on observe une perspicacité nouvelle des chercheurs, une certain manière d’interroger la pertinence des catégories qu’ils utilisent. Mais on ne dispose pas encore aujourd’hui d’une théorie économique de substitution qui remplacerait la théorie standard. Et ceux-là mêmes qui interrogent le plus activement les fondements de la science économique ne sortent guère de leur domaine. Les historiens étudient les formes passées des activités économiques, les historiens des sciences enquêtent sur la formation des procédés de calculs, les sociologues qui s’interrogent sur les rapports entre les institutions et les raisonnements. Ces efforts de déconstruction sont utiles, mais on est encore loin d’une reconstruction. On peut cependant, ici et là, opérer quelques percées. Prenons un exemple d’actualité, en nous intéressant de plus près à la Bourse, et plus précisément à une catégorie essentielle pour la compréhension et le fonctionnement des marchés financiers : la notion d’incertitude financière.
Rythme des échanges et mémoire des prix
L’activité boursière sur une place de marché, toute cohérente qu’elle puisse être, prend des formes différentes selon la manière dont l’information mobilisée pour la cerner est organisée, transformée, calculée au moyen d’indicateurs abstraits. L’économiste ne pourra la saisir qu’en choisissant, de manière raisonnée, un certain état de cette combinaison d’institutions et de calculs. Il prendra le risque de pétitions de principe incontrôlées. Une autre voie, plus sûre, consiste à faire jouer des variations expérimentales contrôlées de telles combinaisons.
L’incertitude financière conserve-t-elle une même forme si on change les cadres dans lesquels s’inscrivent les variations de cette activité ? Les réponses spontanées seront plutôt affirmatives.
Celui ou celle qui est porté à mettre en doute l’incidence de la donnée institutionnelle dira que, l’incertitude étant ce qu’elle est, qu’on la mesure d’une manière ou d’une autre, cela n’y changera rien. Il retrouvera un geste ancien et peu convaincant – scholastique à vrai dire – qui faisait naguère écarter par principe l’observation empirique…
Celui ou celle qui a entendu parler de fractales sera également porté vers une réponse affirmative, mais pour d’autres raisons : le hasard en question, s’il était de structure fractale, offrirait en effet les mêmes formes à divers niveaux d’agrégation. Oui, mais… la question n’est pas de s’en tenir à un modèle puissant et commode : elle est de savoir si empiriquement la structure de l’incertitude qu’enregistrent les cours de Bourse dépend ou non des cadres institutionnels de son enregistrement…
Or il se trouve que l’incertitude financière ne conserve pas la même forme selon les conditions de son objectivation par le calcul. C’est ce que montre l’expérimentation empirique, comme nous allons le voir.
Cette piste empirique a été ouverte il y a près de soixante-dix ans par le sociologue Maurice Halbwachs, qui pointait l’importance de la mémoire dans la formation des prix : « Dans les Bourses où l’on négocie les titres, dont les prix changent non seulement d’un jour à l’autre, mais, durant une même séance, d’une heure à l’autre, toutes les forces qui modifient l’opinion des vendeurs et des acheteurs y font sentir immédiatement leur action et qu’il n’y a pas d’autre moyen de conjecturer ou prévoir ce que vont être les prix que de se guider sur ce qu’ils ont été au moment le plus rapproché. À mesure qu’on s’éloigne de ces cercles où l’activité des échanges est le plus intense, la mémoire économique se ralentit, s’appuie sur un passé plus ancien et retarde sur le présent. » (La Mémoire collective, rééd. 1997, p. 222-223). C’est là un constat tout à fait réaliste et toujours pertinent : aujourd’hui, l’intensité sur le desk est de cette nature, et le rythme plus vif que naguère encore pour des raisons technologiques évidentes. Au-delà de ces lieux hautement spécialisés et interconnectés, les instruments d’affichage des prix réactualisés selon de faibles fréquences n’ont guère de sens, sauf peut-être pour des investisseurs intempestifs. De même, les commentaires boursiers des médias généraux d’information sont-ils toujours en retard sur l’activité financière effective.
L’expérimentation empirique va donc consister à faire varier les cadres temporels implicites de l’enregistrement de l’information économique. Dans cette affaire, on ne dispose que de peu de chose malgré la masse d’information actuelle : pour chaque transaction ou agrégat de transactions, une date et un rang dans une base de données. Mais ce peu suffira.
En effet, la date offre une marque sur une base chronologique universelle : le temps calendaire, celui de l’horloge. Quant au rang, il procure un autre indice chronologique : celui de la succession des actes d’enregistrement des transactions, un temps séquentiel discret et cumulatif. On imagine aisément deux cas de figures qui font voir la différence entre les deux référentiels temporels. Le premier est celui d’une période de calme pour le titre ou l’ensemble de titres considérés : les transactions s’enchaînent les unes après les autres. Le second cas est un moment de surchauffe sur le titre ou les titres en question : pendant la même période de temps d’horloge, une très forte intensité des transactions se manifeste par la plus forte fréquence des enregistrements successifs.
Embarquons deux observateurs, chacun sur l’un des deux référentiels temporels. Celui qui vivra au rythme de l’horloge percevra une période de quiétude dans le premier cas et de frénésie dans le second. Pour l’autre observateur, le temps se comptera au fil des inscriptions des transactions successives sur la base de données. Dépourvu d’autre repère temporel, il ne pourra que constater la suite des actes : « celui-ci, puis celui-là, maintenant un autre… etc. », et il sera dans l’impossibilité de distinguer les différences d’intensité que le premier observateur n’aura pas manqué de noter.
Le plus difficile est accompli. Il ne reste en effet qu’à appliquer le calcul classique de la distribution de probabilité des variations, pour un intervalle temporel donné, de la rentabilité d’un titre, ou d’un panier de titres. On fera le calcul avec les mêmes données mais deux fois : une première fois, selon des intervalles de temps d’horloge (c’est le calcul classique, implicitement dans le référentiel du temps astronomique) ; une seconde en nombre de pas entre deux transactions.
Tous les relevés de cours se prêtent à ce double calcul. Son application à des indices bien connus suffit à mettre en évidence des variations dans la forme de l’incertitude financière. En voici trois exemples restitués graphiquement. À chaque fois, la distribution de la rentabilité de l’indice est calculée dans chacun des deux référentiels et comparée à la surface grisée qui correspond à une distribution dite « normale », c’est-à-dire de Laplace-Gauss (ou deuxième loi de Laplace).
Premier exemple : comment évaluait-on l’incertitude sur la Place de Paris au XIXe siècle ?
Le premier exemple est celui de la place de Paris pendant la Restauration et jusqu’à la veille de la politique de libre-échange admise par le Second Empire. Il est fondé sur la reconstruction rétrospective d’un indice comparable au CAC40 actuel (à partir des travaux publiés en 2008 par l’historien économiste Pedro Arbulu), et sur son agrégation séquentielle au moyen des volumes de transactions, extrapolées à partir de leur taxation (en se fondant sur les travaux publiés par son collègue Angelo Riva en 2009). Si l’on considère la rentabilité de l’indice, même à l’échelle grossière d’agrégats mensuels dans le référentiel calendaire et d’agrégats du même ordre de grandeur de 200 000 francs de produit fiscal, l’hypothèse d’une normalité gaussienne de la distribution de l’incertitude ne peut être retenue (voir le graphique 1, dans l’encadré).
Entrons brièvement dans les détails techniques, qui permettent de faire ressortir deux points. Pour étalonner la « maigreur » relative de la courbe de répartition, on dispose d’un indice appelé « leptokurticité » (K). Si la distribution est normale au sens de la loi de Laplace-Gauss, alors la leptokurticité est égale à 0. Plus l’indice de leptokurticité est élevé, plus la répartition est concentrée, creusée à ses abords et moins elle est négligeable aux extrêmes : la courbe est plus fine et plus pointue que la fameuse courbe en cloche qui correspond à la distribution gaussienne.
Pratiquement, cela traduit le fait que le titre ou le panier de titres connaît alors de fortes variations. C’est précisément ce qui se passe dans le cas de la place de Paris au XIXe siècle. Cette observation est d’ailleurs conforme au constat sur lequel plusieurs auteurs, à la suite de Benoît Mandelbrot, ont appelé l’attention des spécialistes : en matière financière, les événements extrêmes sont moins rares que ne le prévoit la deuxième loi de Laplace.
Mais ce n’est pas tout. La leptokurticité de la loi de probabilité de la rentabilité sur la Place de Paris entre 1819 et 1859 est plus forte quand elle est calculée selon un référentiel calendaire que selon un référentiel temporel embarqué au rythme des transactions. C’est même dans ce cas de figure, au fil des transactions et non au rythme de l’horloge, qu’on obtient les valeurs les plus faibles de l’indice de leptokurticité (K) parmi les différents calculs explorés. Pour qui avait l’œil rivé sur les affaires, cette incertitude avait la douceur des choses de finance telles qu’on les décrivait aux XVIIe et XVIIIe siècles : les hauts et les bas s’équilibraient infatigablement et tout tournait autour d’une moyenne.
Or pendant cette longue période qui irait du XVIIe siècle à la première moitié du XIXe siècle, celle de la lente formation du raisonnement économique et des procédés de calculs statistiques, on n’avait pas recours (ni à la boutique, ni à la Bourse) à des procédés explicitement fondés sur le calcul des probabilités mis au point après Laplace, ceux qu’il a synthétisés au début des années 1810 (sa Théorie analytique des probabilités a exactement 200 ans cette année). La théorie des moyennes promue ensuite par Adolphe Quetelet n’a été admise parmi les statisticiens, les économistes et les organisateurs d’institutions financières qu’au cours de la seconde moitié du XIXe siècle. Les agents économiques ne disposaient donc d’aucune objectivation statistique dont les principes auraient correspondu aux calculs de dispersions actuels, certes plus sophistiqués – ni bien sûr aux calculs homologues en référentiels séquentiels tels qu’ils sont proposés ici. La connaissance des spécialistes provenait de ce qu’ils étaient au cœur des transactions. Si bien que le calcul aujourd’hui classique de la distribution de l’incertitude de la rentabilité parisienne au début du XIXe siècle en référentiel calendaire n’a rétrospectivement pas grand sens si l’on veut restituer la perception de l’activité boursière d’alors. C’est au contraire le calcul en référentiel séquentiel qui traduit au mieux ce que pouvait percevoir un familier des transactions sur la Place. Le raisonnement au juger ou à l’estime sur la moyenne répondait grosso modo à la perception de l’incertitude que pouvaient avoir les connaisseurs du marché parisien. Le procédé laplaco-gaussien, promu par Adolphe Quetelet à partir des années 1820-1830, avait ainsi toutes les chances de rencontrer l’idée que les spécialistes de l’époque se faisaient de l’incertitude de l’information économique.
Deuxième exemple, Wall Street dans les années récentes : vu de près, le calme, vu de loin, la volatilité
Qu’en est-il à New York au début du XXIe siècle ? Des calculs homologues sont aisés sur l’indice Dow Jones (DJIA) pour lequel on dispose cette fois des cours et des volumes de transactions enregistrées. Pour la période allant du 5 janvier 2004 au 27 avril 2009, par exemple, on peut retenir un intervalle journalier dans le référentiel calendaire et un intervalle en volume comparable de transactions de 7 milliards de dollars dans le référentiel séquentiel. Les courbes se ressemblent mais elles sont plus denses sur la zone centrale, plus creuses autour (voir le graphique 2). Les indices de leptokurticité le confirment. On retrouve le constat formulé par divers mathématiciens financiers depuis plus de deux décennies : la dispersion de l’incertitude de la rentabilité financière n’est décidément pas conforme à la dispersion d’une loi normale laplaco-gaussienne. Mais la comparaison de Paris et de New York à un siècle et demi d’intervalle met encore en évidence que la structure de cette incertitude n’est pas la même : la leptokurticité s’est accentuée, très fortement.
Si bien qu’au fil des transactions et en oubliant l’horloge du temps astronomique, la structure de l’incertitude financière à New York au début du XXIe siècle n’est plus voisine de celle d’une normale. L’observateur embarqué au rythme des échanges enregistré par le Dow Jones, concrètement le trader scotché sur ses écrans au point d’en oublier la pendule, aura cette impression de longues périodes de calme suivies de brefs moments de fortes turbulences décrites par les professionnels et par ceux qui les étudient, intuition bien différente de celle que procureraient des fluctuations mesurées et banales autour d’une moyenne qu’on apprécierait facilement au juger. Quant à l’observateur lointain, celui qui ne suit pas les cours en temps réel mais de loin en loin, pour ainsi dire à heures fixes, il aura l’impression d’un univers très imprévisible, faussement stable, où soudain, au moment le plus inattendu, tel cours s’effondre à moins qu’il ne se consolide – mais quand on s’en est rendu compte, il est déjà trop tard. Le commentateur et le mandant, loin du desk, seront dès lors plus nerveux que le trader, et ce pour son plus grand bénéfice : il faudra bien s’en remettre à lui. La différenciation des régimes d’incertitude propre à la circulation de l’information économique induit ainsi la formation d’un élément de division du travail (en l’occurrence entre les mandants, les ingénieurs financiers et les commentateurs). Elle accroît l’autonomie des spécialistes qui sont « au cœur de l’information ».
Mais, dira-t-on, faut-il aller calculer des distributions de probabilités selon des référentiels temporels un peu bizarres – quoique très intuitifs – pour conclure que la vie boursière est plus trépidante à New York en 2007 qu’elle ne l’était à Paris en 1840, et qu’entre temps l’ingénierie financière s’est constituée en compétence professionnelle ? C’est entendu, si ce n’est qu’on pouvait le dire sans pour autant le comprendre et qu’on dispose ici d’indices aisément calculables et comparables, cohérents avec les calculs standard et plus étendus quant à leur portée empirique.
Troisième exemple, Wall Street, 1973-2003 : vu de loin, le calme, vu de près, la tempête
Il faut sans doute jeter un coup d’œil sur la période précédente, celle de la fin du XXe siècle à New York, pour se convaincre que le procédé en vaut la peine. Le calcul est analogue au précédent mais l’intervalle de temps séquentiel est de 1,5 milliard de dollars, ordre de grandeur comparable du nombre de transactions journalières pendant la période considérée, soit du 2 janvier 1973 au 31 décembre 2003 (voir le graphique 3). Cette période est caractérisée par des formes nettement différentes de la dispersion de l’incertitude financière sur la place américaine. En effet cette incertitude sur la rentabilité du Dow Jones, appréciée au fil du temps des transactions, a alors été nettement plus rude que celle appréciée au rythme calendaire. La courbe grise et la courbe noire sont inversées par rapport aux deux graphiques antérieurs.
L’incertitude au fil de l’eau, précédemment, était moins âpre que celle qu’on pouvait apprécier vu de loin en se référent à l’horloge du temps astronomique. Mais pendant les dernières décennies du XXe siècle, ce fut le contraire : vue de près l’incertitude financière apparaissait plus abrupte, mais vue de loin elle apparaissait plus douce. Or les seuls calculs disponibles chez les professionnels étaient (et demeurent) ceux construits sur le référentiel calendaire. Les spécialistes qui scrutaient des écrans utilisaient des instruments techniques qui leur paraissaient lisser la réalité. Mais vu de loin, les mandants et les commentateurs ne percevaient pas cette rudesse et tout les portait à faire confiance aux spécialistes les mieux informés. Ceux-ci avaient dès lors tout lieu de ne compter que sur leur intuition, de se défier des calculs et donc de spéculer de manière apparemment débridée, dussent-ils rationaliser cette attitude en invoquant l’irruption de quelques cygnes noirs. On le voit, cette haute opinion d’eux-mêmes n’était pas tout à fait infondée. Mais très peu de temps plus tard, le tournant se situant grosso modo vers 2004, les mêmes intuitions n’étaient plus aussi fondées, elles devinrent plus probablement périlleuses, et par suite plus fréquemment perdantes.
La relativité de l’incertitude financière
L’incertitude financière n’est pas une chose abstraite qu’on pourrait évacuer au détour d’un habile calcul. Elle n’est pas non plus cet être en puissance omniprésent qui devrait nous convaincre de la misère du calcul. C’est une chose concrète, l’une des composantes nécessaires aux échanges économiques. Une chose malléable dont la forme, telle qu’on la saisit empiriquement, dépend des cadres institutionnels de la circulation et de l’enregistrement de l’information économique et des procédés de calculs employés à cet effet. Cette information, ses transformations et ces calculs sont des composantes de l’activité économique : ce sont les normes comptables et les opérations qui vont du tableau à double entrée à la résolution d’un système d’équation à l’équilibre ou encore à la construction d’un processus stochastique.
Si bien que le scientifique doit prendre acte du fait que saisir le phénomène n’a de sens que relativement à un référentiel particulier, ce qui n’est pas dire – ici comme en physique – que ce phénomène soit inconsistant, très loin de là. C’est en le rapportant à divers référentiels, puis en comparant les morphologies qu’on peut alors le circonscrire et qu’on peut mettre en évidence cette consistance. Les bases de données des cours et des indices boursiers offrent ici un matériel empirique considérable dont nous n’avons commenté que deux séries fortement agrégées.
Beaucoup reste à faire sans doute en économie et en histoire économique. Quoiqu’il en soit, c’est en partant de cette relativité forte – au sens de l’épistémologie – de l’incertitude financière à l’égard des cadres implicites de l’enregistrement de l’information économique que l’on peut rigoureusement la caractériser et, dès lors, élaborer une analyse des mouvements caractéristiques des activités financières et des transformations des univers sociaux qui y contribuent. Mais chacun de nous entretient un rapport d’ordre intuitif ou pratique (on parle parfois de folk knowledge), en tout état de cause non savant, à cette incertitude dont la structure est à la fois consistante, variable et relative. Ici, l’enquête de sciences sociales trouve sa matière (sociologie, ethnographie économique, histoire économique). Les procédés de calculs financiers très sophistiqués que nous connaissons aujourd’hui apparaissent finalement des extensions de ces compétences non formalisées : ils sont seulement caractérisés par leur adossement à un référentiel particulier, celui du temps universel. Parfois l’intuition est meilleure que le calcul, parfois non…
References
- BOOKS
-
-
Essai philosophique sur les probabilitésMarquis de Pierre Simon Laplace
List Price: EUR 21,84 -
La Bourse de Paris au XIXe siècle : Efficience et performance d'un marché financier émergentPedro Arbulu
List Price: EUR 22,00 -
Comment tremble la main invisibleEric Brian
List Price: EUR 36,00
-
More on paristech review
On the topic
- Aujourd’hui, qu’est-ce qu’une externalité?By Yann Moulier-Boutang on March 11th, 2011
- Les citrons d’Akerlof, ou comment raisonnent les économistesBy Itzhak Gilboa on December 3rd, 2012
- La neuroéconomie ou comment fonctionne le cerveau des tradersBy Sacha Bourgeois-Gironde on May 17th, 2010
By the author
- Une brève histoire de l’incertitude financièreon December 27th, 2012
- Le démon du spéculateur est-il bien raisonnable?on January 2nd, 2012
Pingback: Une brève histoire de l’incertitude financière » Dextre zèbre