Jeff719 a écrit :QUANT - Pourquoi Dwex va échouer.
Maintenant venons en au cœur du propos : un certains nombre de problèmes constituent les ingrédients du soucis annoncé.
1) L'absence de calculs d'incertitude sur les mesures effectuées, disons la prise en compte insuffisante des effets chaotiques générés par l'usage de données insuffisantes.
2) La non prise en compte de bon vieux critères de jugement d'une EC en faisant trop confiance aux méthodes numériques.
3) Sous estimer le fait et les raisons selon laquelle le trading d'EC est encore plus compliqué que le trading d'actifs (actions, indices, paires, options...)
4) Faire confiance à des providers dont le MM est complètement délirant au prétexte que l'algorithme de Darwinex et si malin qu'il va en faire un investissement sérieux.
5) Négliger les informations dont disposent les concepteurs de stratégie pour constituer des portefeuille.
Maintenant nous allons aborder le gros morceau : Le jugement d'une EC, qu'en est il de la performance ?
1) Comment investir sur un Darwin ? prenez le meilleur !
Un Darwin qui a obtenu récemment le meilleur D-SCORE : TCY.
Le meilleur D-SCORE, 76.3 vous imaginez! C'est du béton. On va voir ce qu'on va voir :
Comment est-ce possible ?
- La plaisanterie dure depuis un certains temps, l'historique est suffisant pour que l'expérience soit au top
- Le levier délirant étant stable, le Risk Management est excellent
- Les Take et Stop étant plutôt constants la Consistency est très bonne
- Le Timing n'est pas trop mauvais
- La Scalability, quand on est que Advanced, on s'en moque
- La performance : 6.8, pas si mal et même pas loin de passer à expert.
Oui, d'après Darwinex, on a affaire à un Expert en puissance.
Comment la performance peut elle être à 6.8 ?
C'est simple, la méthode des petits singes est facilement contournée par de nombreux mécanismes :
- Très peu de trades. Si par hasard la stratégie a beaucoup de chance (ce qui arrive forcément au milieu de beaucoup de stratégies), alors peu de singes la batteront.
- Enormément de trades. Le cas ici de TCY. Même si la stratégie est limite avec peu d'alpha et peu de pips par trades, les singes vont avoir du mal. La note ne peut être mauvaise.
Bien sûr l'EC du Darwin est moins nulle :
0% par an, ça vous dirait ? Surtout qu'avec un DD de 15%, dormez tranquille. Voilà ce qu'offre le meilleur Darwin du moment. Ce que ça donne de faire confiance à une méthode aveugle et numérique : on va voir ce qu'on va voir, maintenant on a vu.
2) Les bonnes vieilles méthodes
Quand je parlais de bonnes vieilles méthodes d'évaluation d'EC, j'évoquais des critères habituels qui de loin peuvent sembler subjectifs mais sont en fait parfaitement factuels et quantifiables :
- L'EC est elle régulière ?
- Y a t'il de gros DD ?
- La stratégie est elle stable sur l'historique étudié ?
Pour juger tout ceci, d'un seul regard les habitués observent l'EC et appliquent inconsciemment des règles numériques qui font en gros ceci. :
Ça gagne ou pas : évaluation de la pente cad l'espérance
Que font les DD : évaluation de la variance
Est-ce que la stratégie cartonne les premières années mais perd depuis 6 mois voir un an : évaluation de la régularité à long terme
L'observateur en déduit donc Espérance / Risque, ainsi que les perspectives de reproductibilité pour le futur.
C'est tout.
Quelle EC préférez vous ?
A noter, et vous l'avez compris, que les deux stratégie peuvent avoir ici tout a fait les mêmes histogrammes journaliers de gains/pertes, ainsi que les mêmes métriques selon Darwinex. Darwinex a seulement oublié de réfléchir à la question du time frame : les P/L journaliers donnent ceci, mais y a t'il ou pas des mois, des trimestres vraiment désastreux ?
En dernier lieu le cadrage à VAR20 ne change rien à l'affaire.
3) Un exemple d'outil de mesure simple : la régression linéaire de l'EC
Pour évaluer que c'est plutôt droit que zigzaguant, et ceci sur le long terme, c'est pas compliqué, on appelle ça une régression linéaire. Factuel, élémentaire à calculer et cerise sur le gâteau, ça ne dépend pas d'un time frame, c'est tout terrain.
Certains préconisent le calcul d'une régression dite ancrée sur le zéro de l'EC. Une régression dont la passage est forcé au début de la courbe à analyser. Les équations s'en trouvent nettement simplifiées :
Code : Tout sélectionner
Pente = Sum(XY)/Sum(X2)
SigmaRes = MathSqrt( Sum(Y2) - Sum(XY) * Sum(XY) / Sum(X2) )
Y représente une EC (ou plutôt la variation par rapport à l'origine), X représente un delta T (une bougie par exemple), Sum signifie la somme, X2 est une notation qui signifie X au carré.
La Pente, c'est le rendement par unité de temps.
SigmaRes c'est l'écart type résiduel, cad la racine de la variance inexpliquée par le modèle (l'écart à la droite de régression).
C'est là que l'on comptabilise tous les DD par rapport à la droite de régression.
Il n'y a pas de calcul de l'abscisse d'origine vu que c'est zéro.
Je ne suis pas sûr que cet ancrage soit une bonne idée, en effet on découvre des phénomènes de bord tel qu'un impact alourdi du début de l'historique par rapport à l'ensemble. Il y a notamment une instabilité du résultat si l'on joue sur la date de début. Cette exploration montre que la forme du début de l'EC a plus d'influence que la forme de la fin de l'EC, ce qui n'est pas raisonnable.
Ainsi, le mieux est de faire une régression normale qu'on pourrait qualifier de flottante, pas collée à l'origine. Les équations sont habituelles :
Code : Tout sélectionner
Pente = ( Sum(XY) * n - Sum(X) * Sum(Y) ) / ( n * Sum(X2) - Sum(X) * Sum(X) )
Origine = ( Sum(Y) - Pente * Sum(X) ) / n
Ce qu'il faut comprendre, c'est que la méthode des moindres carrés donne plus de poids à un gros DD rencontré lors d'un mois qu'aux petits DD quotidiens. Bien qu'une méthode de Monte Carlo explore ce qui se passe quand on a pas de chance et ce qui arriverait si jour après jour on rencontrait une mauvaise série, cela reste une simulation IID. L'usage du Monte Carlo compense en grande partie les méfaits des équations classiques dont la supposée gaussienne est erronée. Mais cela ne fait pas tout et n'est toujours pas la réalité.
L'usage d'une régression linéaire explore les DD qui sont arrivés, la stabilité ou l'instabilité des gains. Par exemple, si les gains sont obtenus pas un alpha régulier, c'est mieux que s'ils sont obtenus par deux semaines miraculeuses survenant au cours d'une année. Peut être que ces deux semaines ont la même probabilité de survenir à l'avenir. Peut être pas. Ces rares pics de succès extrêmes seront dévalués (bien qu'ils puissent être le fruit d'une stratégie parfaitement efficiente, mais ce n'est pas la question : pour être bien noté il faudra plus d'historique).
Les écarts à l'EC seront dont taxés, d'autant plus que l'écart est profond. Ainsi la mesure ne tient pas compte que du max DD, mais de l'ensemble des DD qui sont survenus. Le plus gros possède le plus de poids (vu que c'est son carré qui est pris en compte). Mais les moyens DD comptent aussi. S'il y en a beaucoup, souvent (ce qui augmente les chances d'avoir un jour un DD retentissant), ces écarts profonds et fréquents vont dégrader la note.
A ce titre il convient de critiquer l'immense cas qui est fait du max DD. Ce n'est qu'une information. Un point. Ce n'est pas vraiment une statistique. C'est un peu comme si, partant d'un dès qui
soit est pipé et avantage le six ou
soit ne l'est pas et ne l'avantage pas, vous faisiez quelques lancers. Au bout de 8, le six sort deux fois.
Ma tête à couper, ce dès là est pipé, j'en suis sûr...
Ridicule n'est pas ? Pourtant tout le battage sur le max DD est du même acabit. Un biais psychologique de l'investisseur en quelque sorte. Pour évaluer le vrai risque de DD qui pend au nez de l'equity, il faut prendre en compte toutes les amorces de DD, un certains nombre des pires, dont le max DD fera bien sûr parti. On pourrait construire un modèle d'évaluation des MAE (de l'EC, pas des trades), partant d'une sélection des pires. Mais c'est inutile, la régression linéaire fait précisément cela pour vous lorsqu'elle évalue la variance inexpliquée.
En dernier lieu, il faut avoir présent à l'esprit que le vrai DD, ce n'est pas la mauvaise nuit, le mauvais jour après une news. Non, c'est quand s'enchaine un deuxième mauvais jour, avant un troisième, ceci après deux semaines plutôt mauvaises, qui ont suivit un mois décevant, etc. Disserter sur le gros DD du jour n'avance pas à grand chose, sauf peut être s'il s'agit de stratégies vraiment déraisonnables au levier délirant. Là c'est un autre sujet. Que le risque de ruine apparaisse tous les 3 mois ou tous les ans n'importe plus.
Maintenant, que fait on avec cette jolie régression linéaire ? On préfère le meilleur Return/Sigma résiduelle. C'est une sorte de rendement sur risque. Bien sur il vaux mieux mener des calculs d'annualisation pour que les choses soient comparables.
Peut être que maintenant cet article commence à être ennuyeux voir agaçant, surtout pour les Darwineux (dont je suis), alors finissons pas quelque chose d'utile :
4) Dans MT4, c'est pas compliqué
Depuis les releases 600 qui ont offert un vrai langage objet (MQL4 c'est du MQL5 en fait), il y a une fonction intéressante dans l'optimiseur : La fonction Custom.
Cette fonction permet de fournir à l'optiseur une variable calculée par l'utilisateur en tant que variable à optimiser (plutôt que le PF par exemple). Par exemple on peut calculer un sharpe ou encore le rendement/risque en calculant Pente / Sigma résiduelle. Bien sûr on peut annualiser pour produire une sorte d'équivalent sharpe. Ainsi, on optimise directement les variables de la stratégie sur ce résultat : une EC qui essaye d'être régulière.
5) Conclusions
Concernant l'usage de la régression linéaire sur l'EC, rendons à César ce qui est a César : l'idée fut suggérée et appliquée avec bonheur par l'excellentissime Yves Benoit, chercheur en trading automatique. C'est à peu près le seul vrai scientifique à ma connaissance qui réalise des conférences aux salons. Faut dire que ça tire la moyenne vers le haut.
Comme je l'avais déjà évoqué, je ne doute pas que la Darwin team va améliorer les choses. Le mieux étant l'ennemi du bien, il faut bien se lancer et sauter à l'eau. On ne peut pas attendre la perfection pour démarrer. Cependant quand un machin craint vraiment, peut être ne faut il pas attendre trop longtemps pour réagir. Parlons franchement : l'évaluation de la performance est plutôt nulle. Cela fait des mois que tout le monde voit bien que des EC minables obtiennent de très bons scores. C'est pourtant pas compliqué :
Score = racine(score des singes normalisé * note de régression normalisée ).
Bien sur les notes doivent être normalisées (de 0 à 1 ou de 0 à 100, pour avoir le même poids). Il faut savoir que les modèles polinomiaux sont très sur optimisants (Score = a * facteur1 + b * fateur2), alors que le produit des facteurs est beaucoup plus robuste. On peut tout à fait réaliser une synthèse de différentes mesures (le PF par exemple) et faisant la racine nième du produit des différents facteurs.
Pour ceux qui ne sont pas IT, l'immense charge de développement de la chose est de... quelques jours de programmeur. Si on ne dispose pas des équations, ajoutez quelques jours d'analyste.
Il y a urgence...