Ce site utilise des cookies

Pour vous offrir la meilleure expérience possible, ce site utilise des cookies. Vous pouvez retrouver toute l'information concernant notre utilisation des cookies ici. Votre vie privée est importante pour nous et nous vous encourageons à lire notre politique de confidentialité.

OK

L'évolution des ARP : une approche lamarckienne

POUR VOIR LES PRODUITS ET SERVICES LOCAUX

Sélectionnez votre pays

Dr Daniele Lamponi et Dr Lars Jaeger de GAM Systematic soulignent l'importance des modèles alternative risk premia (ARP) qui évoluent au cours du temps et s'adaptent aux conditions changeantes.

22 janvier 2021

Au XIXe siècle, deux théories principales ont émergé concernant l'évolution biologique : Charles Darwin accordait une importance plus importante à des variations fortuites, aléatoires et non orientées qui permettaient une sélection naturelle au fil du temps, tandis que Jean-Baptiste de Lamarck estimait que l'évolution était dictée principalement par des variations bénéfiques acquises et non aléatoires découlant des changements de l'environnement externe. Tous deux se sont battus contre la « théorie standard » alors en vigueur concernant le monde biologique, selon laquelle Dieu a créé tous les êtres vivants sur Terre de la meilleure façon possible, qui existent sous leur forme actuelle depuis les débuts mêmes de la vie. Si Lamarck est globalement tombé dans l'oubli aujourd'hui, la théorie de Darwin est devenue l'une des pierres angulaires de la biologie moderne. A l'inverse de l'opinion du consensus sur l'évolution biologique à l'heure actuelle, les changements au sein de l'univers ARP suivent davantage la théorie lamarckienne, à savoir qu'ils interviennent principalement en réponse à l'environnement extérieur. Et ils ne suivent en aucun cas la théorie créationniste selon laquelle ils sont créés une seule fois, parfaitement et pour l'éternité.

Depuis que nous avons commencé à investir dans les ARP entre le début et le milieu des années 2000, celles-ci ont été largement acceptées et ont pris de l'ampleur pour revenir au premier plan de l'univers des alternatives liquides. Nous estimons que les primes de risque ont de beaux jours devant elles. Cette croyance s'appuie sur un fondement théorique solide : les primes de risque jouent un rôle capital dans le fonctionnement ultime des marchés de capitaux, à savoir répartir et transférer le risque entre les participants au marché. Elle est par ailleurs étayée par des preuves empiriques à long terme, qui s'étendent sur des décennies de performance réelle.

En outre, nous arguons depuis longtemps que les modèles quantitatifs doivent évoluer et s'adapter aux conditions changeantes, et les stratégies ARP ne font pas exception. D'aucuns pourraient y voir un conflit : si les primes de risque sont immuables dans le temps, pourquoi adapter les modèles et les algorithmes de récolte ? Après tout, l'on pourrait prétendre que, une fois l'algorithme de récolte créé, celui-ci sera efficace aussi longtemps que la prime de risque considérée sera d'application, à savoir indéfiniment (sauf en cas de changement structurel dans la fonctionnalité de transfert du risque). Il faut donc présumer qu'il existe un algorithme de récolte optimal qu'il est possible de concevoir, et l'on pourrait au mieux tolérer une évolution sous la forme d'une convergence vers cet algorithme « idéal » au fil du temps. Même si cet argument n'est pas mauvais en soi, nous estimons qu'il est globalement incorrect. Les algorithmes de récolte doivent évoluer et s'adapter à l'évolution des conditions extérieures, dans la mesure où ils résultent d'un équilibre entre différents objectifs, tels que la pureté de la prime de risque récoltée, les coûts de transaction, la liquidité et la disponibilité des instruments utilisés et la complexité opérationnelle de la mise en œuvre et de l'exécution du modèle.

Comment les modèles s'adaptent-ils aux changements des marchés sous-jacents ? A l'inverse de l'opinion du consensus sur l'évolution biologique, nous adhérons ici à la théorie lamarckienne, à savoir que l'évolution au sein de l'univers ARP intervient principalement sous l'effet de l'environnement. L'évolution lamarckienne des modèles de praticiens ARP est d'une importance capitale pour les investisseurs, dans la mesure où elle a une conséquence directe et mesurable : la performance.

Au début de notre aventure dans l'univers des ARP début 2000, nous avons consacré la plupart de notre temps de recherche aux « nouvelles » primes de risque1 . Comme dans tout processus de recherche, réussites et échecs se succèdent : certains des projets de recherche ont permis de mettre sur pied des stratégies robustes, tandis que d'autres ont été abandonnés en raison d'une application trop complexe ou de coûts de transaction trop élevés ou encore par manque de confirmation empirique ou de preuves dans l'environnement théorique supposé de transfert de risque. Près de vingt ans plus tard, notre temps est toujours principalement consacré à l'amélioration des stratégies existantes et à l'examen des algorithmes de récolte. Il est bien entendu captivant de revenir sur une stratégie dont la mise en œuvre s'était avérée coûteuse ou difficile ou de suivre une nouvelle piste prometteuse sur le plan intellectuel. De nouveaux instruments financiers peuvent ainsi voir le jour ou la liquidité des véhicules existants peut être améliorée. Dans le cadre établi actuel, il s'agit toutefois davantage de l'exception que de la règle : la nouvelle frontière de la recherche ARP, une fois un praticien établi (ce qui prend généralement quelques années, voire une décennie entière), correspond davantage à l'efficacité de la mise en œuvre qu'à la découverte constante de nouvelles primes2 . C'est là que se trouve l'innovation réelle ainsi que la frontière bien délimitée entre des algorithmes de récolte performants ou non (aussi peu alléchant que cela puisse paraître dans l'argumentaire de vente destiné aux clients).

La méthodologie utilisée reste pour sa part la même que par le passé. Les fondements du processus de recherche de GAM se basent sur la compréhension des moteurs de risque et de performance des stratégies. Notre recherche n'entend pas générer des performances exceptionnelles lors des contrôles a posteriori, mais bien identifier les facteurs de risque et les mécanismes de transfert de risque. Pour finir, nous mettons au point un algorithme visant à récolter les primes de la manière la plus efficace possible. Cette dernière étape implique comme prévu de devoir trouver des compromis. En effet, la pureté des primes de risque récoltées peut être neutralisée par le coût du processus de récolte, la disponibilité et la liquidité des instruments négociés ainsi que la complexité du procédé.

Afin de mettre en lumière ce processus d'évolution continu en matière de définition de l'algorithme de récolte, nous étudions deux exemples présentés ci-après. Ils démontrent à merveille pourquoi les modèles doivent évoluer et indiquent que la récolte de primes de risque alternatives au sein des portefeuilles exige expérience et attention constante aux détails. Le premier exemple a trait à l'instrument de couverture intégré à notre stratégie Minimum Variance, tandis que le deuxième fait référence à l'impact de la politique monétaire des banques centrales sur notre algorithme de récolte de la prime de momentum des obligations.

Exemple 1 : instrument de couverture au sein de la stratégie Minimum Variance

La stratégie Minimum Variance de GAM est neutre par rapport au marché et est mise en œuvre via la création d'un portefeuille de positions longues sur des actions, équilibré par une position courte sur des futures sur indices au sein du marché correspondant. Les titres du portefeuille long only sont sélectionnés selon une optimisation de la variance minimum3 , tandis que le montant de la couverture en futures est calculé en imposant une contrainte de neutralité pure à l'exposition directionnelle au marché (couverture du bêta). La Figure 1 est une représentation graphique de la stratégie globale. Comme nous ne cessons de le répéter, le danger d'une telle mise en œuvre réside dans les détails et dans les nombreuses décisions que nous devons prendre en mettant sur pied les différents algorithmes de récolte. Plus précisément, même si l'on respecte toutes les contraintes du portefeuille long only et que l'on met au point une méthode pour calculer la couverture du bêta, il reste la question de savoir quel future utiliser comme couverture. Sur le marché japonais, par exemple, des futures sur Nikkei et sur Topix sont négociés4 . Il s'agit dans les deux cas d'instruments liquides, quoique les coûts de transaction soient légèrement plus faibles pour le Nikkei. L'indice Nikkei présente également une volatilité et un bêta quelque peu supérieurs, ce qui exige un nombre de contrats moindre pour la couverture du bêta au sein du portefeuille long only. Le Nikkei est par ailleurs plus concentré, c'est-à-dire qu'il comporte un risque idiosyncratique plus important (ce qui explique en partie la volatilité accrue). Choisir quel contrat négocier repose sur un équilibre fragile entre coûts de transaction, possibilités de compensation dans le portefeuille, liquidité et qualité de la couverture. La composition des indices évolue en outre dans le temps, ce qui implique que les décisions doivent être régulièrement passées en revue. L'expérience et une bonne compréhension des moteurs de performance des portefeuilles long et court sont dès lors nécessaires pour effectuer une sélection judicieuse des contrats à négocier. La Figure 2 indique l'écart de performance des deux contrats futures sur la période comprise entre décembre 2015 et décembre 2020 ainsi que les différences d'exposition (allocation sectorielle) entre les deux indices japonais.

Figure 1. Représentation graphique de notre stratégie Minimum Variance

 
Source : GAM. A titre d'illustration uniquement.

Le choix des futures sur le Topix ou le Nikkei est certes un détail, un petit élément dans un océan d'autres facteurs, mais il peut néanmoins coûter à la stratégie5 pas moins de 15 % sur la période considérée !

Figure 2. Indices Topix vs Nikkei

  
 
Source : Bloomberg, GAM et secteurs GICS via Bloomberg. A titre d'illustration uniquement.

Exemple 2 : momentum obligataire et politique monétaire

L'évolution du comportement découlant de l'introduction de taux d'intérêt extrêmement faibles illustre les changements au niveau de l'environnement et de la structure de marché qui nécessitent une adaptation de l'algorithme de récolte. Ces dernières années, les banques centrales des économies développées ont mis en place des mesures sans précédent afin de lutter contre une déflation. Elles ont ainsi baissé les taux à plusieurs reprises pour finir par les faire passer en territoire négatif, et l'assouplissement quantitatif est devenu la nouvelle norme. Comme nous l'avons déjà mentionné6 , l'intervention des banques centrales a entraîné des changements structurels dans la courbe et les distributions attendues des taux d'intérêt, ce qui a nécessité un examen et un ajustement de l'algorithme de récolte de la prime de risque momentum sur les marchés obligataires développés. D'un côté, les propriétés statistiques des séries chronologiques des obligations ont sensiblement évolué ces dernières années dès lors que les taux d'intérêt sont désormais à des niveaux qui impliquent une moindre probabilité de baisses supplémentaires. De l'autre côté, le comportement de la courbe des taux d'intérêt est lui aussi bien différent sur le plan structurel, dans la mesure où les taux à court terme ont une liberté de mouvement limitée dans ce nouveau cadre. Ces changements structurels sont tous deux exprimés à la Figure 3. La section A reprend l'évolution de la volatilité sur un an glissant des contrats futures Euro-Bund (10 ans) et Euro-Schatz (2 ans), tandis que la section B indique le coefficient de régression (bêta) des séries chronologiques de l'Euro-Bund par rapport à l'Euro-Schatz. Toutes deux indiquent des changements structurels dans le régime de volatilité du contrat à plus courte échéance et dans la relation entre les deux contrats. Les nouvelles conditions de marché nous ont contraints à remettre en question et à surveiller de près l'utilisation de la volatilité comme indicateur au sein de l'algorithme de récolte, soit au niveau de la génération de signaux soit dans la définition du système de pondération.

Figure 3. Exemple de changements structurels sur les marchés obligataires découlant de la politique monétaire des banques centrales.

  
  
Source : Bloomberg et GAM. A titre d'illustration uniquement

Comme nous ne cessons et ne nous lassons pas de le répéter, le processus qui permet de récolter efficacement les primes de risque individuelles exige expérience et attention constante aux détails. Ces deux facteurs sont cruciaux pour gérer les difficultés qui se présentent dès lors que de multiples décisions doivent être prises lors de la conception et de la mise en œuvre d'un algorithme, concernant par exemple les données, les univers d'investissement, les signaux et les méthodes de construction de portefeuille7 . Mais ils sont également déterminants pour trouver le bon équilibre entre la pureté de la prime de risque et les coûts impliqués ainsi que pour identifier l'utilisation la plus efficace des instruments négociables. Compte tenu de la dispersion considérable des performances dans l'univers ARP, et pas uniquement en 2020, il semble que de nombreux fournisseurs n'ont pas encore trouvé cet équilibre. L'heure est peut-être venue d'apprécier le cadre lamarckien et le temps qu'il faut pour que les portefeuilles ARP trouvent un équilibre solide, plutôt que de croire qu'il existe des stratégies ARP optimales qui nous ont été offertes par Dieu.

1See Lars Jaeger, Alternative Beta Strategies and Hedge Fund Replication, Wiley (2008)
2La plupart des prétendues découvertes de nouvelles primes de risque peuvent en réalité être associées à une optimisation au sein d'un échantillon ou à des moteurs de performance existants déjà connus.
3L'objectif de notre optimisation de variance minimum consiste à sélectionner les titres de manière à ce que le portefeuille long only qui en résultera présente le risque le plus faible possible (tel que mesuré par la variance).
4L'Indice Nikkei est composé des 225 principaux titres du pays. Il s'agit d'un indice pondéré par les prix, ce qui signifie qu'il correspond à la moyenne des cours des actions de l'ensemble des entreprises cotées. L'indice Topix est pondéré par la capitalisation boursière (flottant) et reprend toutes les entreprises de la « première section » de la Bourse de Tokyo, une section qui organise l'ensemble des grandes entreprises de la Bourse en un groupe. L'indice comprend actuellement 2.173 titres.
5Minimum Variance sur le marché japonais, avec couverture du bêta
6D. Lamponi. Ne pas rester focalisé sur le rétroviseur. GAM, Perspectives 2019
7D. Lamponi et A. Schorr. ARP: There is no such thing as generic algorithms. GAM, Perspectives 2019.

 

Mentions légales importantes
Les informations contenues dans le présent document sont fournies à titre informatif et ne constituent pas un conseil en investissement. Les opinions et estimations contenues dans le présent document peuvent faire l'objet de modifications et reflètent le point de vue de GAM dans l’environnement économique actuel. Aucune responsabilité ne saurait être engagée eu égard à la précision et à l’exhaustivité de ces informations. Les performances passées ne préjugent aucunement des performances actuelles ou futures.

Dr Daniele Lamponi

Investment Manager

Dr Lars Jaeger

Responsable Alternative Risk Premia

Articles Liés

Luxe numérique : entretien avec Karinna Nobbs – partie 1

Swetha Ramachandran

Investir dans le virage vert de l’Asie

Jian Shi Cortesi

The Disruptive Strategist - Semi-conducteurs

Mark Hawtin

Invalid MyFavouriteContentDialogViewModel detectedTitleText or MessageText is not populated