Next Finance English Flag Drapeau Francais
Emploi Formation Rechercher

Bruno Dupire : « Le problème de la finance n’est pas de calculer... »

Pionnier des modèles à volatilité locale et leader de la recherche quantitative à la Société Générale puis à Paribas, Bruno Dupire, nous livre sa vision des marchés et répond aux critiques sur la volatilité locale...

Article aussi disponible en : English EN | français FR

1/ Vous êtes l’auteur du célébrissime modèle de « Dupire » ou modèle à volatilité locale utilisé abondamment dans les salles de marché. Dans quel contexte avez-vous publié ce modèle et quelles étaient vos motivations à ce moment là ?

Quand j’ai rejoint la Société Générale début 1991, mon premier souci a été de développer des extensions du modèle de Black-Scholes pour tenir compte de la structure par terme de la volatilité, d’abord de manière classique par une volatilité instantanée déterministe du temps (modèle Merton 1973), puis par un modèle a volatilité stochastique, qui a donné lieu en 1992 à un papier Arbitrage Pricing with Stochastic Volatility , avec une version simplifiée Model Art dans Risk Magazine en septembre 1993. Ce papier montrait comment construire un profil logarithmique à partir d’options vanilles (options de type Européen) et le delta hedger pour répliquer la variance réalisée, ce qui permet en particulier de synthétiser la variance instantanée forward, donc de considérer qu’on peut la traiter. Il est alors possible de faire, dans une optique à la Heath-Jarrow-Morton, des hypothèses sur sa dynamique et de la « risk neutraliser » pour obtenir un modèle à volatilité stochastique calibré sur la structure par terme des volatilités implicites. Ce papier introduisait sans le savoir les Variance Swaps (de même que Neuburger) et les volatility derivatives.

En 1992, les traders s’intéressaient de plus en plus à une autre distorsion du marché par rapport à Black-Scholes : le skew, ou la forte dépendance de la volatilité implicite par rapport au strike, qui a conduit à faire des hypothèses différentes sur la dynamique des prix selon l’option considérée, ce qui est intenable. Je me suis donc attaché à construire un modèle unique qui serait compatible avec tous les prix de vanilles, avec une première approche discrète dans un arbre trinomial. Il s’agissait de trouver les probabilités de transitions qui respecteraient les prix de marché.

Le principe est très simple : prenons disons un Call dont le strike et la maturité coïncident avec un nœud de l’arbre. Au pas de temps précédent, sa valeur en chaque nœud donne un profil qui peut s’écrire comme un portefeuille de trois Calls de strikes adjacents expirant immédiatement. En égalant les prix aujourd’hui du Call initial et du portefeuille, on obtient les probabilités de transition et la variance locale discrète, qui converge vers la variance locale lorsque le nombre de pas de temps augmente.

Pour m’assurer de la pertinence de l’approche, j’avais besoin d’avoir une formulation du modèle en temps et prix continus, ce que j’ai fait début 1993. Le modèle a les caractéristiques suivantes (et est le seul à les avoir) :
- la volatilité instantanée est une fonction déterministe de la date et du prix (volatilité locale) ;
- le modèle reproduit exactement le prix des vanilles ;
- cette volatilité locale est calculable explicitement à partir des prix d’options ;
- le modèle est complet donc donne des prix uniques et la stratégie de réplication.

Mon papier Pricing and Hedging with Smiles a été présenté en juin 1993 et une version Risk Magazine Pricing with a Smile publiée en janvier 1994. Au même moment, Emanuel Derman et Iraj Kani, du groupe de recherche de Goldman Sachs, avaient développé un arbre binomial qui répondait à la même question (ils sont finalement passés au trinomial en 1996, mais il est de toute façon préférable de l’implémenter par différences finies). Mark Rubinstein de Berkeley avait un arbre binomial différent qui ne calibrait qu’à une maturité.

Nous avons tous été associés à ce modèle. D’une part je trouvais cela un peu injuste car j’avais construit un arbre meilleur et plus tôt, surtout, j’avais développé la théorie du cas continu et élaboré l’approche du hedge robuste de volatilité (superbucket) pour décomposer le vega (sensibilité à la volatilité) sur les strikes et maturités. Mais d’autre part, j’étais à l’époque un quant relativement inconnu et j’étais honoré d’être en compagnie de célébrités du domaine.

J’avais donc deux modèles : le premier à volatilité stochastique calibré à la structure par terme de la volatilité (mais pas au skew), le deuxième à volatilité déterministe calibré à toute la surface. Il était donc naturel d’essayer d’unifier ces deux modèles pour obtenir un modèle à volatilité stochastique calibré à toute la surface.

J’ai présenté en 1995 A Unified Theory of Volatility, qui établit entre autres que les variances locales (carré des volatilités locales) sont synthétisables à partir des vanilles et qu’un modèle à volatilité stochastique est calibré à la surface si et seulement si l’espérance de la variance instantanée conditionnée à un niveau de prix égale la variance locale imposée par la surface.

2/ Quelles furent les réactions du marché à cette époque ?

Mitigées dans un premier temps. Les questions que les traders se posaient par rapport au smile étaient plus de savoir si le skew du marché était justifié ou excessif, alors que ma préoccupation n’était pas de le remettre en question, mais de comprendre son impact sur les prix d’exotiques. Petit à petit le marché a compris l’importance de calibrer un modèle à des instruments simples pour en déduire le prix d’instrument plus compliqués et également faciliter l’agrégation du risque. Cette problématique était mieux acceptée dans l’univers des taux d’intérêt que pour la volatilité. Elle est maintenant totalement assimilée et plusieurs banques ont des milliers de PC qui moulinent pour réévaluer et analyser le risque d’énormes portefeuilles d’options dans le cadre du modèle à volatilité locale.

3/ Dans une récente interview sur ce site, Elie Ayache affirmait ceci : « Le modèle de volatilité locale a ainsi bloqué toute velléité de calibration à d’autres options que les vanilles, ce qui a eu pour conséquence que ni la recalibration ni la marchéisation du facteur de risque correspondant (ces deux vertus essentielles de la volatilité implicite) n’ont pu être exploitées au niveau suivant. La distinction entre problème du smile et problème de sa dynamique n’est due qu’à un accident de l’histoire qui donne aujourd’hui l’impression que l’on découvre, avec la dynamique du smile, un problème nouveau et excitant, alors qu’il s’agit du même vieux problème depuis le début : celui du smile, ou, plus simplement, celui du pricing des produits dérivés en dehors de Black-Scholes. Cet accident de l’histoire est le modèle de volatilité locale (1994). » Dans le même ordre d’idées, Patrick Hagan, en formulant le modèle SABR, expliquait que le hedge produit par le modèle à volatilité locale était moins bon que celui du simple modèle Black & Scholes, quel est votre regard sur ces critiques ?

Il faut bien distinguer le concept de volatilité locale du modèle à volatilité locale.

- Les volatilités locales révèlent des informations sur le comportement futur de la volatilité à partir prix des vanilles aujourd’hui, indépendamment du modèle considéré. C’est aussi l’outil qui permet d’exploiter des différences entre valeurs forward et des vues, les convertissant en stratégies de trading.

- Le modèle à volatilité locale, lui, postule que la volatilité instantanée suit exactement la volatilité locale extraite des prix d’options, donc égale à une fonction déterministe du temps et du prix.

Ce postulat est évidemment une hypothèse très forte, insoutenable, tout comme le modèle de Black-Scholes qui suppose une volatilité constante. Au moins, le modèle à volatilité locale est le modèle minimal compatible avec les prix d’aujourd’hui et c’est un petit pas dans la bonne direction, mais il n’offre qu’une description très pauvre des évolutions possibles.

J’ai élaboré des modèles à volatilité stochastique et des modélisations alternatives avant et après avoir développé le modèle à volatilité locale, ses limites étant si criantes. En revanche les volatilités locales (ou plus précisément leur carré, les variances locales) elles-mêmes jouent un rôle tout à fait central car ce sont des quantités que l’on peut bloquer à partir d’options existantes, en arbitrant la dimension strike contre la dimension maturité.

Beaucoup de participants ne sont pas conscients que les variances locales ont un statut de variance instantanée forward conditionnelle à un niveau de prix. Critiquer les volatilités locales revient à critiquer le concept de taux instantané forward, qui a été une avancée majeure dans le domaine des taux d’intérêt. La notion de volatilité étant plus élusive que celle de taux d’intérêt et les options étant apparues bien après les obligations, il est naturel que la notion de volatilité (variance en fait) forward soit apparue bien après celle de taux forward.

Avec le recul, je pense que ma contribution réelle n’est pas tant d’avoir développé le modèle à volatilité locale que d’avoir défini les notions de variance instantanée forward, conditionnelle et inconditionnelle, et explicité les mécanismes pour les synthétiser.

Pour revenir à la question, c’est une erreur de penser que l’approche volatilité locale dissocie les problèmes statique (calibration aujourd’hui) et dynamique (évolution de la nappe de volatilité). La calibration aux prix d’aujourd’hui donne les volatilités locales qui sont les espérances conditionnelles des valeurs futures. Si le marché ne suit pas ces « prédictions », et bien, tant mieux, il y a un arbitrage statistique à mettre en place.

En ce qui concerne le modele SABR et le hedge, même en présence de volatilité stochastique (mais en l’absence de sauts), le hedge optimal, au sens de minimisation de la variance du P&L, d’options court terme près de la monnaie ne dépend que du skew court terme actuel. Le ratio de hedge optimal est une dérivée totale par rapport au prix du sous-jacent, par opposition à la sensibilité, qui n’est qu’une dérivée partielle, et contient un terme croisé qui dépend de la composante de la volatilité stochastique corrélée avec le sous-jacent, composante elle-même dictée par le skew court terme.

L’article SABR dit en essence deux choses :

- 1) le modèle a volatilité locale ne prédit pas les bons comportements de la volatilité dans le futur et produit donc des mauvais hedges
- 2) pour y remédier, SABR introduit une volatilité stochastique corrélée

Pour le point 1), c’est une question empirique, largement débattue et sur laquelle les points de vue sont largement partagés, mais, encore une fois, la vocation des volatilités locales n’est pas de prédire le futur mais d’établir les valeurs forward que l’on peut garantir. Donc, si le marché dévie systématiquement des volatilités locales, il est possible de mettre en place une stratégie d’arbitrage.

Sur le point 2), malheureusement pour SABR, le comportement moyen (la volatilité étant stochastique, on ne peut en parler qu’en terme d’espérance) est le même que celui... du modèle a volatilité locale ! Ceci est toujours du au fait fondamental que la calibration aux données courantes impose l’espérance conditionnelle de la variance instantanée, qui n’est autre que la variance locale. Dans SABR, deux paramètres agissent sur le skew : l’exposant beta et la corrélation. Malheureusement, d’une part, ils sont largement redondants, et d’autre part l’erreur est de calculer la variation de la volatilité en fonction du sous-jacent, les autres paramètres étant figés, ce qui contredit la présence de la corrélation. Lorsque celle-ci est prise en compte, on retrouve bien évidemment que SABR est une version bruitée du modèle à volatilité locale, centrée sur celui-ci.

En résumé, le modèle à volatilité locale a ses limites mais la notion de volatilité locale elle-même est incontournable et la négliger est se condamner à ne pas comprendre les mécanismes qui sous-tendent la volatilité. Par exemple, si la volatilité locale sur une période future et pour un certain intervalle de strikes est inférieure à 10% et si vous êtes convaincu qu’à cette date la volatilité sera supérieure à 10% si le prix du sous-jacent est dans cet intervalle, il est possible d’exploiter les dimensions strike et maturité pour créer une position qui reflète exactement cette vue.

4/ Vous continuez à travailler sur la volatilité et la corrélation, peut-on considérer ces 2 paramètres comme des actifs à part entière ?

Il est à la mode de les considérer comme « asset classes » et de parler librement de trading et d’arbitrage de volatilité et corrélation, la plupart du temps de manière injustifiée. Pour le faire correctement, il faut arriver à « purifier » les stratégies pour qu’elles reflètent ces quantités sans être polluées par d’autres facteurs. Par exemple, une option simple (vanille) est en fait un mélange compliqué d’exposition à la volatilité et au sous-jacent, entre autres. En particulier, l’exposition à la volatilité est maximale autour du strike et négligeable loin de la monnaie.

Maitriser la volatilité nécessite d’être capable de construire des positions exposées soit totalement inconditionnellement (trade de niveau), soit purement conditionnellement (trade de skew, entre autres), à la volatilité. Une situation très courante est d’avoir une anticipation correcte mais qui se traduit par une perte, car la position n’est pas en accord avec la vue : par exemple, jouer la convergence des volatilités CAC et DAX en tradant un straddle à la monnaie contre un autre peut conduire à une perte si un indice décale mais pas l’autre et que les volatilités convergent, mais à un niveau éloigné. Le même principe vaut pour les arbitrages de dispersion par exemple. Pour traduire fidèlement une vue sur la corrélation en une stratégie, il faut idéalement opérer avec une variété de strikes ou des variances swaps.

Les quantités que l’on peut traiter synthétiquement ne sont pas la volatilité et la corrélation, mais la variance et la covariance, dans une certaine mesure. Plus précisément, si toutes les vanilles sont liquides sur un sous-jacent, il est possible d’extraire les niveaux des variances instantanées, ou des carrés des volatilités court terme à la monnaie, inconditionnelles ou conditionnelles, mais pas les skews.

Pour le cas multi-actif, la situation est plus compliquée. En supposant que les options sur paniers ou spreads (avec différents coefficients) sont disponibles, il est possible de bloquer la covariance instantanée inconditionnelle, pas la conditionnelle, et seulement pour une définition normale (absolue) et non lognormale (proportionnelle) de la covariance. La corrélation, combinaison non linéaire des variances et covariances, ne peut être traitée qu’approximativement.

5/ Que retenez-vous de ces 20 dernières années passées dans l’industrie financière, et what’s next ?

Je pense qu’elles ont été l’age d’or de la finance quantitative, par la variété des problèmes, des produits, des modèles. La première de ces deux décennies a été le temps des pionniers ; ensuite le process s’est industrialisé et les contraintes régulatoires exigent de documenter toujours plus les modèles pour les justifier. Le domaine a mûri et les méthodes novatrices sont devenues des lieux communs enseignés à l’université. Dans les années 80, très peu de quants avaient suivi une formation académique en calcul stochastique alors que c’est maintenant la norme.

La finance quantitative a été submergée par un afflux de mathématiciens qui ont apporté leurs méthodes, parfois au détriment de la pertinence des problèmes. L’accent est plus mis sur les techniques calculatoires, déterminant le choix d’un modèle en fonction de l’existence de formules fermées.

Ce glissement du conceptuel au calculatoire s’observe par exemple dans le traitement du hedge. Le mathématicien s’intéresse en premier lieu au prix, calculé comme espérance sur les scénarios générés par le modèle, alors que le trader exige non pas seulement un prix moyen, mais un résultat garanti quel que soit le scénario réalisé. C’est le hedge qui convertit un profit potentiel en profit certain pour chaque scénario mais cette notion est souvent délaissée par les quants au profit du pricing.

Pour moi, le problème de la finance n’est pas de calculer les géodésiques dans le demi-plan de Poincaré pour obtenir des développements asymptotiques dans des modèles à volatilité stochastique, mais plutôt par exemple de mesurer l’efficacité d’un hedge, sachant que la plupart des modèles ne sont pas complets et que la réalité ne l’est sûrement pas.

En ce qui concerne le futur, il est probable que les travaux sur la microstructure, alimentés par la dominance du trading électronique, vont continuer à se développer. Ils recevront peut-être un apport de la « behavioral finance » pour mieux modéliser le processus de formation de prix et la dynamique de trend following et de rebond. Je pense que la modélisation du crédit va évoluer, donnant moins d’importance aux « reduced form models » qui décrivent la faillite comme un événement soudain précédé d’un fort drift a la hausse !

Coté business, on peut s’attendre à une extension de la titrisation à une grande variété de sous-jacents (si vous voulez un exemple français : le viager), en raison de deux concepts puissants : constitution d’un pool pour diversifier le risque et structuration en tranches pour adapter le payoff aux vues ou besoins de différentes classes d’investisseurs. Plus généralement, je pense que les techniques de optimal risk sharing vont se développer pour conduire à des produits plus adaptés aux besoins réels et endiguer la tendance récente des banques à proposer des produits qui créent des risques pour les deux parties.

F.Y Août 2008

Article aussi disponible en : English EN | français FR

Tags


Partager

Facebook Facebook Twitter Twitter Viadeo Viadeo LinkedIn LinkedIn

Commentaire
Publicité
Dans la même rubrique
Rubriques