Il y a quelques années, la Recherche Quantitative des salles de marché était surtout tournée vers l’amélioration de modèles (prise en compte du smile / smile forward) et des techniques de pricing (Amélioration des méthodes de Monte-Carlo, etc...).
Si les problèmes de calibration et le recours à des méthodes numériques sophistiquées pour améliorer la précision et la rapidité de calcul des paramètres des modèles restent d’actualité, la baisse du volume de produits structurés et la nouvelle réglementation ont changé la nature des priorités.
« Depuis la crise de 2008 on observe une nette migration des préoccupations « quant » vers des problématiques qui touchent à la réglementation : risque de contrepartie (CVA, DVA), coût de la liquidité (FVA), stress testing.
Avec la crise, la demande de produits exotiques a diminué. Mais l’environnement post-crise fait que les produits dit « vanilles », comme les swaps de taux, sont devenus « exotiques » et complexes à évaluer et à couvrir. Il n’y a certes plus de nouveaux développements fondamentaux dans les modèles de pricing. Mais il est nécessaire d’ajuster les modèles pour les adapter à un environnement plus complexe. Par exemple, avec l’éclatement de la crise subprime l’été 2007, le marché a réalisé la nécessité de prendre en compte dans la valorisation des dérivés le risque de contrepartie, ce qui a conduit les banques à passer à un environnement multi-courbes amenant les banques à adapter leurs modèles de pricing. Aussi, depuis plusieurs années on opère dans des marchés où les taux sont très faibles, voir négatifs, ce qui nécessite également des ajustements de modèles » explique Michel Crouhy, Responsable de la Recherche et Développement chez Natixis.
Autre sujet d’importance, la validation de modèles. Au sein des salles de marché, le Responsable de la validation de modèles est devenu un homme puissant et respecté des patrons du front office, avec qui, il parle d’égal à égal. « Il est dorénavant fréquent que des traders se voient interdire certaines opérations, leurs modèles n’ayant pas été jugés adéquats pour le pricing et le hedging des structures qu’ils souhaitaient mettre en oeuvre » indique enjoué un Responsable des risques d’une banque anglo-saxonne à Londres. « Les modèles sont structurellement imparfaits. Au mieux, ils réduisent la réalité ; mais un modèle est faux, par définition. Un enjeu central est donc d’en préciser l’usage. En gros, il s’agit de les utiliser, mais de savoir qu’ils sont faux et, autant que possible, d’être capable d’en comprendre les limites. C’est un enjeu essentiel aujourd’hui, pour les professionnels : il faut qu’ils soient capables de comprendre la mécanique, de repérer la logique de ce qu’ils utilisent » avertit Nicole El Karoui.
Cependant, la nature des modèles utilisés, semblent toujours tracer une ligne de démarcation entre les activités « buy side » et « sell side ».
« Il y a une forte différence entre activités « sell side » (conception de produits structurés, plutôt banques) et « buy side » (mise au point de stratégies). Du coup, les premières sont souvent basées sur des modèles pas forcement validés, alors que les secondes sont moins « mathématiques » et plus ancrées sur des données réelles. On peut craindre, comme par le passé, que les premières pêchent dans le futur sur le contrôle des risques réels, même si la crise semble avoir changé un peu les pratiques » analyse Jean-Philippe Bouchaud, Ph.D., Président de Capital Fund Management.
Spécialisée dans le trading systématique, cette société de gestion alternative emploie plus d’une trentaine de docteurs en physique. L’analyse des données y est fondamentale. Ses équipes s’attellent à des sujets tels que la structure temporelle de l’impact des transactions sur les prix, le caractère endogène des mouvements de marchés ou encore les solutions sous-optimales dans le choix des agents (les biais cognitifs, les décisions dans l’urgence, la négligence, etc…).
« Capital Fund Management contribue sur des sujets tels que la microstructure et l’impact des trades sur les marchés. Ceci concerne à la fois les frais de transactions et donc la limitation de la taille des fonds et la stabilité des marchés. Nous travaillons également sur la compréhension de la dynamique de la volatilité, en particulier après les « gros » mouvements de prix. La recherche sur des modèles « d’agents » (Agent Based Models) qui permettraient de simuler de manière convaincante (à terme) la dynamique des marchés, et de manière plus ambitieuse, des modèles macro-économiques, permettant non pas de prédire les prix/les crises mais au moins permettant d’avoir des modèles de risques/scénarios/cygnes noirs moins rudimentaires qu’aujourd’hui (basés sur les observations passées et non sur des mécanismes/boucles de rétroaction identifiés) est également un sujet sur lequel portent nos travaux » explique Jean-Philippe Bouchaud.
Si la compréhension de la structure des corrélations des actifs (corrélations non stables dans le temps) fait l’objet de travaux chez CFM, elle préoccupe également l’ensemble des sociétés de gestion. Chez CPR Asset Management, pour s’assurer des conditions de validité de son modèle d’allocation d’actifs multi-scénarios, l’équipe de Recherche suit en permanence les volatilités et les corrélations.
Prendre en compte des facteurs communs explicatifs d’une partie des variations et covariations des actifs entre eux est aujourd’hui essentiel dans tout processus d’investissement.
Même si certains gérants revendiquent toujours une approche discrétionnaire et fondamentale, ils sont bon gré malgré obligés d’intégrer une part d’analyse quantitative dans leur gestion.
« Les gestions qui n’ont aucun processus quantitatif rigoureux au niveau de la construction de portefeuille intéressent très peu les investisseurs institutionnels. Un processus d’investissement est généralement appréhendé comme un séquencement de prises de décision. L’investisseur institutionnel a besoin de mesurer la pertinence et la valeur ajoutée des différentes étapes du processus afin d’évaluer de façon qualitative et quantitative les risques de la stratégie (risques de volatilité, risque de corrélation, risque de tracking error, risque de perte maximale, etc.). Une gestion sans aucune composante quantitative est incompatible avec les standards de due diligence imposés par les investisseurs institutionnels » prévient Thierry Roncalli, Responsable de la Recherche et Développement chez Lyxor Asset Management.
Les attentes des investisseurs institutionnels, qui souhaitent comprendre la façon dont évoluent leurs actifs par rapport à des variables économiques rendent encore plus concrets les travaux à l’étude au sein des équipes de recherche. « Le développement du modèle d’allocation stratégique de Lyxor AM, basé sur des facteurs de risque est une demande explicite de certains investisseurs sophistiqués qui veulent connaitre la sensibilité de leur allocation de long-terme par rapport à l’inflation et à la croissance économique » explique Thierry Roncalli.
Changements de régime, volatilité, corrélation, politique monétaire, courbes de taux, réglementation… poussent actuellement l’ensemble des investisseurs à repenser leur prise de décision. Si les approches discrétionnaires et fondamentales restent nécessaires, elles n’en demeurent pas moins insuffisantes. Décriés pendant la crise, les Quants semblent encore avoir de belles heures devant eux.
Christian Lopez, Responsable de la Recherche et Développement chez CPR Asset Management identifie 5 sujets majeurs, au moins qui occuperont les analystes quantitatifs au sein des sociétés de gestion :
- Les supports d’investissement (briques de base) : Les nouveaux facteurs de sélection actions, alternatives aux indices de capitalisations (smart bêtas), stratégies quantitatives (risk premia), …
- L’assemblage des supports d’investissement à l’aide de modèles de construction de portefeuille ou d’allocation d’actifs
- Les nouvelles contraintes d’investissements (réglementaires, liquidité, …)
- La gestion des risques ex-ante et ex-post
- Et l’ISR