La directive Solvabilité II, entrée en vigueur le 1er Janvier 2016 après plusieurs années de discussions entre les compagnies et les autorités réglementaires, constitue un virage majeur pour le secteur de l’assurance européenne.
En plus d’introduire la valorisation des engagements « consistante avec le marché », la réforme consacre une notion bien familière des professionnels de la finance quantitative qui est celle de la valorisation en environnement « risque neutre ». Ce concept a connu son apogée au courant des années 70 dans le cadre des travaux de nombreux académiciens [1] dont notamment ceux de Fischer Black, Myron Scholes et Robert Merton sur la valorisation des options.
Dans ce cadre théorique, la valorisation d’un produit financier, qui « promet » à maturité T un flux terminal max (K-S, 0) indexé sur un sous-jacent fluctuant S et un montant fixe K, a plusieurs implications :
- Le rendement du sous-jacent S à chaque pas de temps en t = 0 et t = T est le taux sans risque r
- Les prix des actifs sont des martingales et donc l’espérance du flux terminal actualisé au taux sans risque r est égale au flux initial qui est le prix du produit dérivé
- Il est possible de construire une stratégie de couverture entre l’instant initial t = 0 et la maturité t = T via un portefeuille d’actifs générant à maturité t = T le flux final en partant du flux initial
De manière plus générale, sous la probabilité risque neutre, le prix d’un produit dérivé est le prix de sa couverture et il est calculé comme étant l’espérance de la somme de ses flux futurs actualisés. Ces flux sont modélisés via un modèle stochastique (choisi en fonction des caractéristiques du produit) qui donne la dynamique du (ou des) sous-jacent(s) et dont les paramètres sont déterminés en amont via une procédure de calibration. La calibration consiste à rechercher les paramètres qui minimisent l’écart au sens des moindres carrés entre les prix de marché et les prix théoriques donnés par le modèle avec pour objectif d’extrapoler le prix d’un produit « inconnu » à partir de l’information disponible et les prix de produits « connus » sur le marché.
L’idée de fond de cette construction théorique en finance était d’avoir un cadre permettant de valoriser les produits dérivés et surtout de les couvrir via un portefeuille de réplication rebalancé à une certaine fréquence avec l’objectif de le rendre insensible aux évolutions du sous-jacent. Ainsi, le pricing des produits dérivés n’existe qu’avec son pendant, le hedging.
Ce cadre conceptuel issu de la finance quantitative a été largement généralisé au domaine de l’assurance et fait désormais partie intégrante du corpus méthodologique utilisé pour la valorisation des fonds propres sous Solvency II ; ces fonds propres à t = 0 sont vus comme étant l’espérance d’une somme des flux actualisés dont la dynamique dépend d’actifs sous-jacents (taux d’intérêt, actions, immobilier, fonds spéculatifs, cash) suivant des modèles stochastiques déterminés.
Cette transposition de concepts de la finance quantitative à la finance actuarielle n’est pas sans poser de nombreuses questions :
1. Les engagements des sociétés d’assurances qui sont de très longue durée sont-ils assimilables à des options financières ?
La réponse est non. Il est clair que les assureurs opèrent sur le temps long et procéder à des calibrations de modèle sur des données de marché de courte de maturité (ou des données longues illiquides) pose de sérieuses questions sur la pertinence de la valorisation.
Enfin, les sociétés d’assurances peuvent difficilement être perçues comme vendeuses d’options alors que la structure de leur portefeuille est faite d’engagements non réplicables par construction, donc non hedgeables sur les marchés financiers.
2. Sur quels produits cotés faut-il effectuer la calibration des modèles ?
Lorsqu’on procède à une valorisation consistante avec le marché, les dérivés utilisés pour calibrer les modèles doivent être en lien avec les sous-jacents qui portent le risque sur les engagements. Pour exemple, si les garanties de la compagnie d’assurance sont principalement indexées sur des taux zéro coupon issus du marché des swaps, on peut calibrer sur une nappe de volatilités des swaptions. Si elles le sont plutôt sur des taux EURIBOR, des volatilités de caps ou de floors seraient appropriées.
Enfin, il est impératif pour la compagnie d’assurance d’être capable de dire sur quels points exactement de la nappe ses engagements sont le plus sensibles pour éviter de déformer le paramétrage du modèle stochastique pour des points de la nappe non significatifs pour son optionalité.
3. L’utilisation d’un taux sans risque avec des ajustements définis par les autorités européennes ne remet-elle pas en cause la volonté d’avoir une valorisation consistante avec le marché ?
L’autorité européenne (EIOPA [2]) prescrit pour chaque pays européen une courbe de taux dite sans risque à utiliser pour valoriser les engagements des compagnies d’assurance. Cette courbe de taux est la courbe de taux zéro coupon issue du marché des swaps ajusté de deux paramètres : le Volatility Adjustment [3] et le Credit Risk Adjustment [4]. Cette courbe de taux EIOPA est utilisée dans tous les modèles ALM des compagnies d’assurance pour valoriser leurs engagements et pose, elle aussi, de sérieuses questions sur la notion même de consistance avec le marché.
En effet, cette courbe de taux EIOPA n’est de fait pas une courbe de marché en tant que tel mais est utilisée pour répliquer des prix de marché valorisés avec une courbe de taux de marché : quid des prix d’options que l’on cherche à répliquer via la calibration ?
4. Quels modèles stochastiques utiliser pour valoriser au mieux les optionalités inhérentes aux engagements des sociétés d’assurance ?
Ce sujet est globalement complexe et, de manière générale, le choix de modèle dépend fortement des types d’engagements que l’on a et des risques sous-jacents. La plupart des compagnies d’assurance sur le marché français utilisent des modèles par défaut intégrant parfois des caractéristiques tels que des volatilités stochastiques ou des sauts sans que cela ne soit totalement justifié dans un secteur qui, comme déjà mentionné, opère sur le temps long et est par construction largement moins sensible aux mouvements erratiques à court terme des marchés financiers.
Ce sont ces mouvements erratiques qu’on cherche à capturer dans le cadre de la valorisation d’options en finance, notamment pour hedger au mieux le produit vendu, ce qui est loin d’être l’objectif des compagnies d’assurance.
Ces questions centrales sont totalement éludées par la réglementation européenne et les pratiques pour les mettre en œuvre au sein des compagnies d’assurance sur le marché français sont loin d’être justifiées ou homogènes. Tout cela implique de fortes disparités dans l’interprétation que l’on peut faire des chiffres de fonds propres économiques et des ratios de solvabilité.
Il est impératif que le Superviseur européen fasse des préconisations sur ces sujets et, de manière schématique, elles pourraient être de plusieurs ordres :
- Comme il est défini une courbe de taux d’intérêt avec des ajustements comme le VA (pour prendre en compte le fait que les compagnies d’assurance gèrent leurs actifs en buy and hold pour la plupart et ne sont que partiellement soumises au risque de liquidité sur les obligations), il serait judicieux de définir un éventail de surfaces de volatilité « officielles » que ce soit pour les actions et pour les taux d’intérêt sur lesquelles les acteurs calibreraient leurs modèles. L’avantage de ce procédé serait que tous les assureurs partiraient sur une courbe de taux d’intérêt et de volatilités issues du marché mais légèrement ajustées par le Superviseur. Ces ajustements auraient pour objectif, à l’instar du VA sur la courbe de taux d’intérêt, d’intégrer les spécificités du marché de l’assurance, notamment le temps long sur lequel les compagnies opèrent et donc le besoin de ne pas systématiquement intégrer des mouvements erratiques sur les données de marché au jour le jour. Cette opération éviterait aussi des jugements à dire d’experts qui peuvent considérablement varier d’un assureur à l’autre en ce qui concerne la construction des nappes de volatilités (méthodes d’extrapolation, d’interpolation ou de smoothing) et influer sur la comparabilité des bilans économiques.
- La directive pourrait par ailleurs contraindre les compagnies d’assurance à identifier et à justifier le choix des parties des nappes de volatilité utilisées pour les calibrations en lien avec leurs engagements et les garanties qu’elles proposent aux assurés ou, en l’absence de justification, obliger les compagnies à utiliser des points de nappes de volatilité définis par défaut selon les pays (correspondant à un portefeuille « moyen » d’une compagnie d’assurance)
- Enfin, les compagnies d’assurance pourraient aussi avoir à systématiquement justifier le choix des modèles stochastiques utilisés en lien, là aussi, avec leurs engagements et les garanties qu’elles proposent aux assurés ou en l’absence de justification, utiliser par défaut des modèles décidés par l’EIOPA pour chaque classe d’actifs
Le fait d’utiliser des données de marché ajustées ferait qu’on sortirait du cadre d’une valorisation consistante avec le marché mais cela corrigerait les gros défauts d’homogénéité des inputs [5] qui existent à ce jour et qui, de fait, créent déjà des inconsistances avec le marché. L’harmonisation des bonnes pratiques sur le marché européen qui était aussi, il faut le dire, un élément essentiel de la réforme Solvabilité II, serait ainsi privilégiée au détriment de considérations discutables de théorie financière.
Au final, si l’on reste encore loin d’une harmonisation générale sous forme de doctrine impulsée par les autorités européennes, la communauté actuarielle française semble être déjà au fait de ces enjeux de valorisation. Elle a ainsi commencé à s’interroger sur de nombreux points de modélisation (dont ceux évoqués dans cet article) avec le renfort d’autorités académiques dans le domaine de la finance quantitative telles que Nicole El Karoui [6], ancienne responsable du DEA de Probabilités et Finance de l’Université VI. Il est donc fort probable que des avancées interviendront dans les prochaines années dès lors que les actuaires auront acquis le recul technique sur ces sujets dans le cadre des spécificités liées à leur business.