Next Finance English Flag Drapeau Francais
Emploi Formation Rechercher

Steve Wilcockson : « Le Machine Learning suscite beaucoup d’excitation »

Selon Steve Wilcockson, Industry Manager, Financial Services chez MathWorks, de nombreux praticiens estiment que le Machine Learning permet de donner du sens à des ensembles de données, ouvrant des perspectives pour définir, agréger ou classer leurs risques…

Next-Finance : Les modèles enseignés dans les universités semblent souvent plus pointus et plus avancés mais rencontrent-il vraiment du succès dans le monde réel ? Quel regard portent les praticiens sur techniques parfois très avancées des universitaires ?

Steve Wilcockson : Notre document « Modeling and Analysis in the Wake of the Global Financial Crisis » aborde cet aspect des choses et il y est fait état du fait que les praticiens voient en l’Université le premier fournisseur des nouvelles générations de techniques qui auront cours en finance. Par exemple, un des experts rencontrés, un trader sur compte propres, nous rappelait ceci : « Les idées en dehors des sentiers battus proviennent des universitaires. » Notre enquête mentionnait aussi le fait que les premiers avocats des techniques innovantes comme le machine learning étaient essentiellement ceux qui les avaient utilisées à l’Université. Cela étant, les idées traditionnelles restent quand même très populaires dans les front-offices. Je me rappelle ainsi d’un gestionnaire d’actifs qui, ayant essayé une technique innovante de prévision, avait fini par trouver que les modèles de régression linéaire standards étaient mieux adaptées. Enfin, beaucoup de gérants sont certes excités par les nouvelles techniques en théorie du portefeuille, comme la Mean-Absolute Deviation, le Second Order Cone Programming (SOCP) et les modèles de Black-Litterman, mais le modèle de Markowitz demeure au cœur de l’optimisation de portefeuille. Et pour finir sur les relations avec le monde académique, il me semble que les banques centrales sont le lieu où la collaboration entre praticiens et université est la plus aboutie, avec la mise en œuvre de modèles macro-économiques utilisant des techniques plutôt avancées, comme les méthodes bayésiennes de prévision.

Qu’en est-il de la complexité des modèles ? N’est-il pas préférable pour les institutions financières d’utiliser des modèles simples mais compréhensibles plutôt que des modèles complexes sur lesquelles on n’a aucun contrôle sur les hypothèses ?

Oui, mais est-ce qu’une simple boite de vitesses manuelle est meilleure que celle avec 5 vitesses, ou encore, qu’une boite de vitesse automatique ? Pour utiliser une analogie plus élaborée, je dirais que la finance reflète le monde dans toute sa complexité. L’assassinat de l’archiduc d’Autriche Franz Ferdinand a provoqué des événements extraordinaires et douloureux qu’on a connus en 1914, tout comme la mauvaise évaluation des Mortgage Backed Securities a causé la contagion de tout le système financier en 2008. Il vaut mieux comprendre, modéliser et essayer de contrôler les conséquences inattendues de la complexité plutôt que de l’ignorer. En finance, les modèles de qualité correctement implémentés peuvent permettre de dealer avec la complexité économique et financière, particulièrement quand ils sont supportés par des jugements de techniciens avisés.

Quels sont ceux qui utilisent les modèles les plus complexes ? Les banques ? Les gestionnaires d’actifs ou les hedge funds ?

La complexité a de multiples définitions. Il peut s’agir de la complexité mathématique, par exemple le machine learning pour le trading comparé à modèles à moyenne mobile. Il peut s’agir de la complexité du système, par exemple un système avec beaucoup de données et de sources d’informations diverses ainsi que de multiples interactions entre toutes les composantes du système. Ou encore, il peut s’agir d’une complexité en amont du modèle, par exemple un modèle simple mais qui implique de nombreuses personnes et des processus lourds. Dans tous les cas cités, il y a là de la complexité, directement ou indirectement liée au modèle.

Au final, je pense que ce qui compte, ce n’est pas la complexité en elle-même, mais la manière dont elle est traitée, validée et quel regard critique on lui porte. Par exemple, le modèle de Black & Scholes est simple mais a toujours besoin d’être validé selon la manière dont il est utilisé, notamment à cause des hypothèses sous-jacentes comme la volatilité qui est constante, entre autres.

Sinon, pour répondre clairement à votre question, de mon opinion, il me semble que les banques ont certainement de bons processus de tests et de validation mais qu’elles n’appliquent pas toujours. Les institutions buy-side, notamment les petits hedge funds, sont à contrario quelques fois accusés de laisser faire en ce qui concerne les tests et les processus.

Il faut certainement promouvoir une forme de culture de la collaboration et ça me semble être la clé pour aboutir à des process efficients. Les ingénieurs en charge de la modélisation doivent communiquer avec ceux qui ne modélisent pas, notamment les équipes de risque. Ces derniers, par exemple, doivent se sentir à l’aise pour challenger les hypothèses des modèles et, inversement, les quants doivent pouvoir comprendre que c’est aussi le rôle des risques de se poser des questions sur ces sujets.

Si quelques analystes des équipes de risque avaient eu les capacités de challenger les hypothèses sur les copules gaussiennes sur les produits dérivés de crédit, notamment les Mortgage Backed Securites (MBS), le monde serait certainement différent de ce qu’il est aujourd’hui. Les ingénieurs financiers vivent parfois dans une forme de bulle scientifique, notamment quand les profits sont au rendez-vous. Pourtant, une bonne communication autour des modèles pourrait permettre à tous, mathématiciens comme non mathématiciens, d’en avoir une bonne compréhension, d’en appréhender les hypothèses sous-jacentes et les implications économiques des choix qui sont faits.

La conception de moteurs automobiles passe par des processus de design approfondis, notamment via le fameux « V Design », qui impose des spécifications de modèle, des simulations, des tests de prototypes et de nombreux tests avant d’aller en production. La finance commence à rattraper son retard mais sa culture plutôt conservatrice ne l’aide pas beaucoup dans ce sens.

Combien de temps mettent en général les institutions bancaires pour intégrer de nouveaux modèles dans leurs systèmes ?

Dans un exemple dont j’ai parlé dans le livre blanc de MathWorks, une banque nous a confié avoir réduit de plusieurs mois à une ou deux semaines le temps de mise en place de ses stratégies de trading sur taux de change en production. Elle a réussi cela en modifiant ses processus et en migrant d’un système où la production était faite manuellement à partir des spécifications, ainsi que l’implémentation et les tests, vers un système automatisé où tout était implémenté directement dans un logiciel dédié et automatiquement testé. Cela a permis de mieux optimiser les ressources vu que les équipes IT se sont dorénavant focalisées sur l’architecture informatique de la plateforme plutôt que sur les tests de stratégies, laissant ce travail directement aux stratégistes. Comme l’a par ailleurs mentionné le rapport, 75% des institutions financières buy-side ont répondu vouloir améliorer leur temps de mise en production de plusieurs mois à quelques jours tandis que 40% des professionnels sell-side souhaitaient rapporter les mises en production à quelques heures.

Quels sont selon vous les trois sujets majeurs actuellement pour la finance quantitative ?

Les sujets majeurs actuellement pour la communauté quantitative en finance sont à mon avis au nombre de trois :

  • Premièrement, tout ce qui a trait à la régulation du risque de contrepartie, les CVA (Credit Valuation Adjustment) et les FVA (Funding Valuation Adjustement). Ce sont des problèmes stimulants intellectuellement pour les quants. Et je pense qu’ils vont les apprécier ;
  • Deuxièmement, tout ce qui a trait au Big Data (data masse). Bien que trop médiatisé, cela soulève des problématiques intéressantes. Mais de bonnes pratiques de modélisation peuvent permettre de traiter de gros volumes de données sans avoir à toutes les utiliser. Le tout n’est pas nécessairement la quantité de données dont on dispose, mais la manière dont on les utilise ;
  • Enfin, un troisième sujet, qui n’est pas sans rapport avec celui évoqué précédemment, c’est tout ce qui a trait au Machine Learning (apprentissage automatique) qui suscite beaucoup d’excitation et d’intérêt, notamment pour les institutions buy-side. La presse a beaucoup parlé de son rôle controversé dans la mise en œuvre de stratégies de trading, jugeant la technique trop centrée sur les données historiques et limitant ainsi ses capacités de prédiction. Beaucoup de praticiens, à contrario, mettent cependant en avant les avantages de la technique qui, selon eux, permet de donner du sens à des ensembles de données homogènes ou non, ouvrant des champs de possibilités aux utilisateurs pour définir, agréger ou classer leurs risques, leurs indices ou leurs portefeuilles, par exemple.

Next Finance Octobre 2013

Tags


Partager

Facebook Facebook Twitter Twitter Viadeo Viadeo LinkedIn LinkedIn

Commentaire
Publicité
Dans la même rubrique
Rubriques