Bilan sur le S&P 500 fin janvier 2010

Publié le par Laurent

Quelqu'un se souvient-il encore des commentaires haussiers dont la presse était remplie les premiers jours de 2010 durant lesquels "il fallait" faire oublier la "pire décennie depuis les années 30" pour les indices actions ? Pouvait-on utiliser le traitement du signal pour avoir un son de cloche légèrement plus fiable ? Et si oui, à quel point ? Voila une partie des questions que l'on a l'intention de traiter dans cette (trop) courte note ...

1. la longue vue: anticiper la baisse 2 semaines à l'avance: le plus souvent, sur ce blog, je vous présente des résultats obtenus en essayant d'anticiper des mouvements pour les 5 prochains jours (une semaine) sur la base de 256 jours d'observations (soit une année). On peut. avec des techniques tout à fait similaires "pousser le bouchon" un peu plus loin en essayant d'anticiper 2 semaines, soit 10 jours, sur la base de 512 jours d'observations. Par exemple, si on s'était essayé à ce petit jeu sur le S&P 500 nominal le 15 janvier au soir, on aurait trouvé ceci:

Capture02Capture03

La technique de décomposition retenue est celle utilisée dans les articles précédents: projection sur une base Prolate pour la tendance de fond + projection sur les fonctions d'échelle Daubechies 4 pour la fluctuation.

2. naviguer à vue: anticiper 1 semaine à l'avance: c'est ce que je propose le plus souvent. Par exemple, la semaine dernière, j'avais publié un pronostic dont voila le résultat concret à travers une comparaison avec ce qui s'est passé réellement cette semaine:

Capture06Capture05

Evidemment, c'est plus précis: il faut deviner moins de jours (et on peut penser que les 256 jours supplémentaires rajoutés dans le passé ne donnent pas grand-chose de plus pour la fluctuation meme s'ils peuvent faire un sur-échantillionage intéressant pour la tendance) et on a des données plus récentes. Toutefois, l'écart de précision n'est pas aussi spectaculaire que j'aurais pu le craindre ...

3. Comparer les décompositions: comme précédemment, l'information vraiment importante se trouve ailleurs, à savoir dans la façon avec laquelle l'algorithme choisit de séparer les 3 morceaux, tendance, fluctuation et résidu. A gauche, vous voyez la décomposition avec 512 jours d'observations et à droite, la meme chose pour 256 jours seulement:

Capture04Capture07

 

La différence qui saute immédiatement aux yeux, c'est évidemment le bruit résiduel: à gauche, on voit clairement une instationnarité autour de l'abscisse T=200 jours, c'est la faillite de Lehman Brothers, le spécialiste du Junk Bond. A droite, les cotations démarrent début 2009, et cet évennement est donc absent: la kurtosis des résidus est donc beaucoup plus civilisée, et ce bruit est nettement plus proche d'un bruit blanc gaussien stationnaire. Cela peut se quantifier au moyen des paramètres habituels de controle: (cliquez pour agrandir)

Capture01

On passe d'une kurtosis de 0.2 (un bruit gaussien a une kurtosis nulle) à une autre de 3.7 lorsqu'on inclut les cotations d'octobre 2008 ... Cela illustre parfaitement le phénomène des "fat tails", pudiquement traduit en français par "ailes épaisses" pour ne choquer personne! Nèanmois, la qualité de l'extrapolation à 10 jours montre que l'on peut à la limite négliger ce genre de fat tails du moment que le phénomène reste très localisé dans le temps et que "de l'eau a eu le temps de passer sous les ponts".

Publié dans Bourse

Commenter cet article