2 novembre 2017

Du calcul des risques à l’évitement des pertes

par Jean-Jacques Ohana et Steve Ohana – Depuis les années 1990, la « science » de l’évaluation des risques financiers s’est construite sans questionner en profondeur ses principaux postulats. Il est temps d’évoluer vers un nouveau paradigme dans la gestion des risques financiers.

Les indicateurs d’évaluation des risques

Se fixant pour objectif d’évaluer les pertes potentielles d’un portefeuille avec un niveau de confiance donné, cette démarche d’évaluation des risques a véritablement pris son essor en 1993 avec la VaR(1) (dite « Value at Risk » et traduite en français par « Valeur en Risque »). Par exemple, la VaR 95% d’un portefeuille à un jour représente la perte globale quotidienne qui sera potentiellement dépassée dans 5% des cas, soit environ un jour par mois. La VaR quotidienne à 99% sera quant à elle théoriquement dépassée dans 1% des cas, soit 2 à 3 jours par an. Les mesures de risque se sont sans cesse développées pour tenter de mieux connaitre les pertes extrêmes liées à l’évolution des variables financières : « Stressed VaR (2) », « CVaR(3) », Stress Tests(4)…

Ces indicateurs sont supposés fournir la « perte maximale » que peut subir un portefeuille et par extension le niveau de fonds propres requis pour éviter la faillite dans la plupart des situations de marché. Cette approche réglementaire du risque a donné l’illusion que les pertes financières sont toujours calculables et maîtrisables. L’exercice standardisé d’évaluation des pertes extrêmes traduit une vision passive du risque : les acteurs ont été déresponsabilisés de leurs pertes et ont pu s’abriter derrière un cadre réglementaire normatif et opaque. La normalisation extrême des approches de gestion du risque n’a fait qu’amplifier leur faillibilité en période de crise, lorsque les acteurs se trouvent simultanément sous-capitalisés et sont obligés de dénouer précipitamment des positions semblables.

Comme l’a montré dès les années 60 le mathématicien Mandelbrot, les aléas financiers sont caractérisés par des queues de distribution épaisses(5) , une propriété essentielle qui les classe dans la famille du « hasard sauvage », bien distincte de celle du « hasard bénin » de la loi normale. L’importante des événements extrêmes est couramment vérifiée dans les phénomènes sociaux régis par l’interaction d’individus collectivement polarisables : succès commerciaux, bulles médiatiques, réseaux sociaux, bulles financières et krachs boursiers…. La distribution « à queue épaisse » des rendements des actifs financiers rend l’exercice d’évaluation des risques aussi dangereux que futile car, dans un monde non-gaussien, il est impossible de définir un niveau de pertes typique dans les queues de distribution. Ainsi, dans le cadre d’une loi de puissance, fréquence et gravité sont liées par une relation log linéaire : quand la perte est multipliée par un facteur n, la fréquence associée n’est divisée que par n puissance alpha.

En vertu de la loi calibrée sur le S&P 500 depuis 1925 (figure 1), où alpha est trouvé égal à environ 2.7, si un investisseur ajuste son niveau de fonds propres en fonction d’une mesure de type Value-at-Risk 99% (soit 3.4% de perte quotidienne), une perte égale à deux fois les fonds propres est subie en moyenne tous les deux ans et demie, une perte égale à quatre fois les fonds propres est observée une fois tous les 16 ans… A titre indicatif, dans le cadre d’une loi normale, une perte égale à deux fois les fonds propres surviendrait environ tous les deux mille ans ! Certes, les modèles de volatilité à mémoire améliorent significativement l’estimation des pertes potentielles. Mais les pertes subies en période de crise peuvent être malgré tout deux ou trois fois plus élevées que la mesure de risque théorique en raison d’effets « feedback » caractéristiques des phénomènes chaotiques : amplification des pertes dues aux ventes forcées, illiquidité des actifs, assèchement du financement, contagion systémique entre acteurs et actifs financiers…

Du scepticisme empirique à la théorie du chaos

Face à ce constat, la tentation est grande d’adopter une posture radicalement sceptique, à la manière de Nassim Taleb : toute prise de risque dans un cadre non-gaussien doit être évitée faute de pouvoir être bien mesurée. L’existence de discontinuités sur les marchés financiers est incontestable (attentats du 11 septembre 2001 ou encore séisme, tsunami et catastrophe nucléaire de Fukushima) et leur occurrence vient nous rappeler opportunément le danger inhérent au levier et à la concentration des risques au sein des portefeuilles financiers. Cependant, ce fatalisme pourrait être exagéré car la plupart des crises financières ne surviennent pas ex nihilo tels les « Cygnes Noirs » (6) de Nassim Taleb, mais s’interprètent comme les transitions de phase endogènes au système financier.

Le concept d’auto-organisation critique(7) est très utile pour éclairer la nature des événements extrêmes sur les marchés. Dans le cadre de cette théorie, des systèmes complexes gouvernés par des interactions entre individus hétérogènes convergent spontanément vers des états critiques attracteurs, à partir desquels ils peuvent bifurquer brutalement d’une phase (par exemple l’euphorie) vers une autre (la panique). A titre d’illustration, si des grains de sable sont ajoutés un à un sur une pile de grains de sable, on aboutit spontanément à des configurations critiques à partir desquelles des avalanches peuvent se former. On peut alors montrer que la taille des avalanches qui surviennent obéit précisément à une loi puissance : tandis que certaines avalanches restent localisées, d’autres provoquent l’effondrement global de la pile.

De même, une bulle d’actifs s’interprète comme une configuration instable où les croyances des acteurs s’alignent à la hausse, un peu à la manière des spins des chaînes d’atomes dans le modèle d’Ising, permettant de décrire le ferromagnétisme. Toutes les positions sont généralement « leveragées », avec de petits coussins de fonds propres calibrés en fonction de la volatilité observée sur un passé très proche. Puis, un événement anodin (un grain de sable tombant sur la pile de sable déjà formée) peut provoquer une spirale de débouclements de position comparable à des cascades localisées de grains de sable sur une pile parvenue à un état critique. D’autres spirales de ventes n’épargneront aucun maillon du système, à la manière des méga-avalanches sur les piles de sable.

La propriété la plus importante des systèmes d’auto-organisation critique est la possibilité d’identifier l’état critique en amont de la transition de phase. Par exemple, dans le cas de la pile de sable, il est possible d’identifier des configurations critiques, c’est-à-dire des sous-amas de grains de sable tout prêts à s’effondrer. Si, dans le cas des piles de sable, la variable clé est la pente locale de la pile de sable en chaque point, la variable caractérisant la « criticalité » (définie comme la probabilité de changement d’état du système) dans les marchés financiers est le positionnement et le levier des investisseurs. Or, celui-ci est bien caractérisé par la tendance des prix sur un horizon long terme. Une tendance passée trop régulière signale un positionnement mimétique amplifié par l’effet de levier de l’endettement. Une telle configuration peut aisément donner naissance à des spirales de ventes forcées. Cependant, bien qu’il soit possible d’identifier la présence d’un état critique, il est plus difficile de prédire le timing exact de la transition de phase(8) …

« Chaos stratifié » et anticipation des crises financières

Même si un état critique n’a pas pu être identifié suffisamment en amont, il est toujours possible de détecter en temps réel la survenance d’une avalanche. Chaque vente forcée de positions se traduit en effet par une hausse du coût du risque (le surcroît de rendement exigé par l’investisseur pour se positionner sur un actif risqué) sur le marché associé. Par exemple, lors de la crise des subprimes, ce sont les coûts du risque sur le marché du crédit qui se sont d’abord envolés. Toute hausse brutale du coût du risque sur un marché donné doit être prise au sérieux, celle-ci pouvant être le précurseur de phénomènes extrêmes sur des échelles plus grandes. L’analogie avec les tremblements de terre est troublante : en finance comme en sismologie, les secousses mineures s’avèrent des prédicteurs efficaces de plus gros séismes (voir le graphe d’aversion au risque figure 2). Les épicentres des secousses financières sont certes localisés en des lieux toujours différents du système financier : crise asiatique de 1997, crise des marchés émergents et faillite du fonds LTCM en 1998, implosion de la bulle high tech en 2000, crise des subprimes et faillite de Lehman Brothers en 2008, crise souveraine et bancaire de la zone euro en 2011… Mais les comportements collectifs de défiance et de panique des intervenants sont des invariants détectables par des capteurs de primes de risque financières.

Un autre aspect fondamental gouvernant les événements extrêmes macroscopiques est le maillage du réseau d’interaction entre les diverses composantes du système. Par exemple, dans le cas des piles de sable, il est possible de caractériser la « criticalité » de différents groupes de grains de sable au sein de la pile. Plus la « criticalité » locale des groupes de grains de sable augmente, plus la probabilité de voir une avalanche locale se propager à l’ensemble de la pile est forte. Cette situation, où de petits événements peuvent en déclencher de plus gros du fait d’interconnexions subtiles entre les composantes du système, est appelée « chaos stratifié ». Ce concept est utile pour comprendre les événements extrêmes sur les marchés financiers. La figure 3 permet en effet de constater une tendance d’interconnexion au sein du système financier. Ainsi, les événements observés sur des marchés particuliers sont aujourd’hui pertinents pour prédire des événements à plus grande échelle. Des réseaux de connexion entre actifs peuvent être utilement couplés avec des analyses de « criticalité » actif par actif pour établir des scénarios de contagion globaux.

Cette approche physique des marchés financiers est appelée à révolutionner notre compréhension des marchés et des risques financiers. Alors que le risque se mesure aujourd’hui à l’aune du passé, il sera demain anticipé par l’observation des interactions présentes entre acteurs et entre marchés. Alors que les pertes sont aujourd’hui calculées en vertu de modèles statistiques, elles seront demain atténuées par la détection en amont des configurations chaotiques. Alors que la gestion des risques est aujourd’hui passive et réactive par rapport aux événements extrêmes, elle sera demain active et anticipative des crises.

Peut-être notre compréhension du système financier aura-t-elle un jour suffisamment progressé pour nous permettre d’y déclencher préventivement des avalanches à la manière des artificiers sur les pentes trop enneigées…

NOTES : (1) La Value-at-Risk (VaR) au niveau 1-x est le quantile de la distribution des pertes au niveau 1-x (2) La « Stressed VaR » représente la VaR en conditions extrêmes de marché (3) la Conditional-Value-at-Risk (« CVaR ») au niveau 1-x représente la perte moyenne dans les x% pires cas (4) Les « Stress Tests » sont des tests de résistance calculant les pertes d’un portefeuille d’actifs résultant de l’occurrence de scénarios économiques et financiers extrêmes : récession économique, défauts simultanés sur un portefeuille de dettes privées ou publiques, impossibilité de se financer sur le marché interbancaire, illiquidité des positions détenues, crises financières ou krachs sur les actifs risqués… (5) Distribution où la probabilité des événements extrêmes décroît lentement avec leur gravité (6) Voir Taleb N. (2007), The Black Swan: The Impact of the Highly Improbable, Random House (7) Voir Bak P. 1996, How Nature Works -The science of self-organized criticality, Springer Verlag

En savoir plus sur http://archives.lesechos.fr/archives/cercle/2012/11/26/cercle_59794.htm#JCoBrOAHUQoDWZ0e.99