Annonce
Réduire
Aucune annonce.
Ads
Réduire
[Graphe AT PRo : programmation]
Réduire
X
 
  • Filtre
  • Heure
  • Afficher
Tout nettoyer
nouveaux messages

  • Parisboy
    a répondu
    USE THE INVERSE HALFSPAN AVERAGE TO IMPROVE YOUR TIMING

    There are many ways in which you can make use of the Inverse Moving Average.

    One of the most important of these is in connection with the half-span average concept. Let's see how it can work for you.

    Direct your attention to Figure VI-8.

    Cliquez sur l'image pour la voir en taille réelle 

Nom : 		HURST VI-8.jpg 
Affichages :	261 
Taille :		71,5 Ko 
ID : 			1980105

    Here is a weekly plot of Alloys Unlimited over the entire time period covered by illustrations VI-1 through VI-7.

    This time, instead of using a 10-week average, an 11-week one is shown. With the number of elements of the average being "odd," each average datum directly corresponds (in time) to a weekly price datum instead of falling in midweek (as for the ten-week one).

    In this way subtraction can be accomplished directly without need for interpolation.

    As formed, each Moving Average is subtracted from the corresponding mean weekly price of the stock The results could be plotted as points about a "zero" base line, either by themselves or connected by straight lines.

    However, the process of erecting vertical lines from zero to the value of the difference (as in Figure VI-8) seems to provide the eye with more information. What can we make of this plot ?

    First of all,the dominant cyclic component just shorter in duration than the trading cycle is now clearly evident.

    Counting weeks (low-to-low and high-to-high) and averaging gives a nominal duration of 12.7 weeks, with a "spread" from 10 to 16.

    The correlation with an expected component of the price-motion model is obvious.

    Secondly, it is seen that the magnitude of this cycle averages 7 points peak-to-peak ( +/- 3.50 points).

    It is seen that the inverse average provides cycle magnitude directly, without necessity for, and without the error inherent in, the construction of envelopes!

    Thirdly, we note that a simple process of subtraction converts a half-span average (which is vitally useful on its own) into that specific inverse average which is most capable of identifying the component of duration just less than that of the trading cycle.

    As seen in previous chapters, identification of this component is an essential part of the process of setting up trailing loss levels and sell signals in general. And, you will normally have already computed the half-span average anyway !

    Now. How does all this aid transaction timing?

    Return to Figure VI-6 and VI-7.

    In the discussions regarding these figures it is noted that the half-span average had put us in the stock short at 51 to 52. But, prices seemed to refuse to go down -oscillating instead from 44 to 51 for 9 weeks.

    The half-span analysis assured us the stock was headed for 40.625. Does the inverse half-span confirm this conclusion ?

    In Figure VI-8, the inverse half-span average is 2 weeks away from a low of the2.7-week cycle.

    The stock price is an additional 5 weeks along (due to the lag of the average). So, we're now 7 weeks along on a component (next shorter in duration than the trading cycle) which averages 12.7 weeks, and varies from 10 to 16 weeks.

    We expect the next significant low of this cycle in a time zone 3 to 9 weeks from now.

    In addition, the 21.7-week (average) duration trading cycle (which varies from 20 to 23 weeks in length) is now 19 weeks along from a low.

    We expect the next significant low of this cycle in a time zone 1 to 4 weeks from now.

    With both of these important cycles due to low out in the same general time period, we know the stock still has more to go on the downside.

    In fact, taking 6/13 of 7 points, we expect about 3.7 points more on the downside from the 12.7-week cycle alone.

    An additional 3/22 of 14 or 1.9 points remains in the 2 1.7-week cycle.

    The present price is 45 which, less 4.6, leaves 40.50 as a low-out estimate.

    We conclude that the stock will reach approximately 40.50 within 1 to 9 weeks.

    This estimate compares almost identically with that obtained using the halfspan average alone (40.625 in 3 weeks )- yet was obtained using information the halfspan average "threw away"!

    With this additional reassurance, we do not hesitate to remain in our short Position - and the stock proceeded to bottom out at 41 the next week, nicely within our tolerance zone !







    Laisser un commentaire:


  • Parisboy
    a répondu
    Envoyé par Ramon Voir le message
    Bonjour Parisboy

    Merci de nous rappeler les travaux de Hurst. J'ai dans mes archives son vieux grimoire numériquement dépoussiéré, que tu nous avais sans doute transmis il y a "quelque temps". La définition du résidu et son utilisation n'est pas si simple.

    Si j'ai bien compris, Hurst dit que si on veut utiliser correctement le résidu il faut le synchroniser avec la moyenne mobile donc le décaler pour compenser le retard. Ainsi le résidu de Hurst (RH) peut s'écrire

    RH = x[(N-1)/2] – y0

    en utilisant entre crochet l'indice du prix x considéré à partir de la valeur actuelle. Cela permet logiquement de synchroniser RH avec la moyenne centrée de longueur N, retardée de (N-1)/2 par l'opération de filtrage. Si on voulait isoler des composantes de périodes plus courtes en filtrant RH, il faudrait utiliser un filtre de fréquence de coupure plus élevée que pour y0, donc avec une longueur N1 plus faible (N1<N). Le résultat y1 aura un retard de (N1-1)/2.

    Un second type de résidu, qu'on peut appeler résidu commun, correspond à R = x – y0.

    C'est celui utilisé par Tukey pour son twicing et dont Smallcaps nous a montré le fonctionnement. Dans cette opération, le filtre de période P est toujours le même (même fréquence de coupure), ce qui veut dire que l'on récupère dans la bande passante des composantes qui existent toujours dans R (pourquoi ?). Celles-ci viennent reboucher les aspérités du premier filtrage, comme le ferait un enduit de lissage. On laisse sécher, mais au lieu de poncer pour supprimer les aspérités résiduelles, on calcule un nouveau résidu et on recommence l'opération en appliquant une nouvelle couche d'enduit. Couche après couche, l'épaisseur (l'amplitude) et le retard augmente (le retard dépend-il de l'épaisseur de la couche ?).

    Quand je pense que Hurst et Tukey ont pu jouer au ping-pong ensemble … Bon, bien tout cela demande réflexion …

    Bonjour Ramon

    Hurst ne parle pas à ce stade d'une une utilisation "correcte " du résidu mais au moment de la justification de son choix d'utiliser des Moyennes Mobiles Centrées , il dit que c'est la façon "correcte " d'utiliser les moyennes mobiles.

    Dans le passage cité en anglais, il se pose la question "peut on faire quelque chose des infos / données que la moyenne mobile (centrée) n'a pas retenue ?"

    Donc si l'on soustrait la moyenne mobile centrée des cours et que l'on appelle ce "reste" "résidu", par définition la moyenne mobile étant "centrée" , le résidu l'est aussi.

    Le point clé pour un trader est que le "résidu" nous donne l'amplitude du "cycle" éliminé par la moyenne mobile

    Laisser un commentaire:


  • Ramon
    a répondu
    Bonjour Parisboy

    Merci de nous rappeler les travaux de Hurst. J'ai dans mes archives son vieux grimoire numériquement dépoussiéré, que tu nous avais sans doute transmis il y a "quelque temps". La définition du résidu et son utilisation n'est pas si simple.

    Si j'ai bien compris, Hurst dit que si on veut utiliser correctement le résidu il faut le synchroniser avec la moyenne mobile donc le décaler pour compenser le retard. Ainsi le résidu de Hurst (RH) peut s'écrire

    RH = x[(N-1)/2] – y0

    en utilisant entre crochet l'indice du prix x considéré à partir de la valeur actuelle. Cela permet logiquement de synchroniser RH avec la moyenne centrée de longueur N, retardée de (N-1)/2 par l'opération de filtrage. Si on voulait isoler des composantes de périodes plus courtes en filtrant RH, il faudrait utiliser un filtre de fréquence de coupure plus élevée que pour y0, donc avec une longueur N1 plus faible (N1<N). Le résultat y1 aura un retard de (N1-1)/2.

    Un second type de résidu, qu'on peut appeler résidu commun, correspond à R = x – y0.

    C'est celui utilisé par Tukey pour son twicing et dont Smallcaps nous a montré le fonctionnement. Dans cette opération, le filtre de période P est toujours le même (même fréquence de coupure), ce qui veut dire que l'on récupère dans la bande passante des composantes qui existent toujours dans R (pourquoi ?). Celles-ci viennent reboucher les aspérités du premier filtrage, comme le ferait un enduit de lissage. On laisse sécher, mais au lieu de poncer pour supprimer les aspérités résiduelles, on calcule un nouveau résidu et on recommence l'opération en appliquant une nouvelle couche d'enduit. Couche après couche, l'épaisseur (l'amplitude) et le retard augmente (le retard dépend-il de l'épaisseur de la couche ?).

    Quand je pense que Hurst et Tukey ont pu jouer au ping-pong ensemble … Bon, bien tout cela demande réflexion …


    Laisser un commentaire:


  • smallcaps90
    a répondu
    Bonsoir,

    Un grand merci à Bambi pour sa page 95 qui manquait.
    Encore merci à Parisboy pour son rappel des bonnes idées de Hurst, entre autres celles des "résidus" de lissage. Cela date de 1970 (dans le "grand livre de Hurst") et de 1977 pour l'idée du twicing de Tukey qui va un peu plus loin. Evidemment les bonnes idées ont toujours circulé dans la communauté des ingénieurs ou non-mathématiciens ou non et de tous les traders. Tukey explique en plus comme utiliser ces "résidus" de lissage.
    Merci enfin à max_et_min pour la ténacité qu'il a eue pour terminer ce document essentiel des anciens post de la file, dorénavant accessibles à tout un chacun (chacune), de trois façons : nom indic, n° de page de la file, nom de l'intervenant. Extra vraiment!
    Bon dimanche à vous.
    Cordialement.

    Laisser un commentaire:


  • max_et_min
    a répondu
    Bonsoir à tous,

    par ces temps chauds des nouveaux menus de toute "fraicheur" viennent de sortir : http://didier.guillemot.free.fr/sommaireint.html

    - Trié par Nom de l'indicateur

    - Trié par Numéro de page

    - Trié par intervenant

    Plusieurs modifications ont également été faites, je ne rentre pas dans les détails, mais l'outil devient intéressant et facile à se servir.

    Bonne soirée.

    Laisser un commentaire:


  • Parisboy
    a répondu
    En 1970 dans son livre "Profit Magic" Hurst nous parlait déjà de l'utilisation des "résidus" . C'est au Chapitre 6 - page 109

    Résidu = Prix - Moyenne Mobile Centrée

    NOW TURN YOUR MOVING AVERAGES INSIDE OUT

    You're familiar now with the principal characteristics of a Moving Average, and how the price-motion model generates criteria for getting the most from them. In this section, you will find they have still more uses.

    Let's ask ourselves the question:

    Is there useful information in what a Moving Average throws away ?

    We recall that a Moving Average "smooths" data. It does this by reducing the magnitude of short duration fluctuations, while permitting the longer ones to remain. In short, it throws away the short fluctuations.

    What a Moving Average Throws Away Can Be Recovered By Subtracting The Average From The Price-Motion Data

    An example will clarify how this works.

    Suppose you form an 11-week Moving Average of the weekly mean prices of a stock.

    This means that in the Moving Average the magnitude of any cyclic component of duration exactly equal to 11 weeks is reduced to zero.

    Thus, the average contains only cyclic components present in the price motion which have durations longer than 11 weeks.

    Subtracting the average from the price motion removes all these longer duration fluctuations, leaving only those shorter than 11 weeks that did not appear in the average (or were "thrown away").

    The only critical item to remember (as always) is to match the Moving Average and price data points properly before subtracting-taking into account the half-span time lag previously described.


    Laisser un commentaire:


  • Ramon
    a répondu
    Bonjour Smallcaps,

    Merci beaucoup pour toutes ces informations et en particulier sur le twicing que je tu viens de me faire découvrir.

    Mais … j'avais récemment été intrigué par une partie du code des clones JMA dont nous avons déjà parlé : une première étape consiste à créer un lissage particulier qui entre ensuite dans deux équations couplées qui conduisent à la JMA. Ce lissage, le voici :

    Une première moyenne exponentielle lisse les prix x
    y0 = EMA(x, 1-jalpha) = jalpha*y0[1] + (1 – jalpha)*x
    (jalpha pour alpha de Jurik car habituellement dans une EMA, le facteur d'amortissement alpha vaut 1 – jalpha et pondère x)

    Le résidu x – y0 est ensuite moyenné
    y1 = EMA(x – y0, 1-jbeta) = jbeta*y1[1] + (1 – jbeta)*(x – y0)

    et le résultat est ajouté à la première moyenne y0 avec une pondération pour constituer un indicateur lissé des prix
    y2 = y0 + phaseRatio*y1 = EMA(x,1-jalpha) + phaseRatio*EMA(x - y0, 1-jbeta)
    phaseRatio qui pondère la MA du résidu est un paramètre d'entrée qui peut être choisi entre 0.5 et 2.5.

    Bon, ce n'est pas tout le traitement mais Jurik faisait donc du twicing, en douce sans rien dire à personne !

    jbeta est déterminé à partir de la période de calcul donnée par l'utilisateur et jalpha = jbeta^power . Dans la première version de la JMA (et dans celle de Sohocool), power peut être choisi par l'utilisateur (2 par défaut, donc jalpha est le carré de jbeta) mais dans la seconde (longue) version qui est adaptative, il est calculé dynamiquement en fonction de critères de volatilité déterminés à partir des prix.

    Même si ce processus de lissage n'est pas du tout intuitif pour moi pour le moment, les résultats me semblent très intéressants.

    Ahhh, Ramon, tient en grande estime la moyenne de Hull ! Elle peut d'ailleurs s'interpréter comme une MA (filtre passe bas) à laquelle on ajoute un MACD (filtre passe-bande) qui a la propriété, en jouant sur les périodes de calcul, de renforcer la réponse juste avant la fréquence de coupure. Puis, pour terminer une autre MA sur l'ensemble pour assurer un filtrage des périodes courtes plus efficace. En fait, cela revient à appliquer un coefficient de surtension à un filtre passe-bas pour le rendre plus réactif. Il faudra que l'on regarde sa fonction de transfert.

    Donc dans tous ces cas, on utilise des techniques un peu semblables : renforcer l'information avant la coupure (facteur de surtension) ou traiter le résidu d'un filtre passe-bas (twicing).

    Avant que la tendance se transforme et s'inverse, c'est vraisemblablement dans une bande de fréquence supérieure qu'apparaissent les premiers signes de retournement. Donc un bon filtrage du résidu, avec un minimum de retard peu donner de bons résultats. D'ailleurs, quelle que soit la MA utilisée, le rajout du résidu compense instantanément son retard ! Comme le résidu est sensiblement de moyenne nulle, certaines techniques difficilement applicables avec le trend deviennent possibles, comme par exemple la transformée de Fourier.
    Et Smallcaps, il se pourrait que la SSA du résidu présente de meilleures dispositions quand le spectre singulier n'est pas saturée par les composantes du trend (??)



    Tu suggérais que l'on pourrait s'attarder un moment sur les ULLMA. Je suis d'accord, pour pouvoir faire un bilan avant de passer à autre chose. Il faut déjà recenser les ULLMA dont on dispose. J'ai scanné rapidement Optimized Trend Trading à la recherche d'autre contributions (il me reste encore une quinzaine de pages à explorer). Après son premier essai (que nous venons de tester), asm8089 a proposé une nouvelle version. Après avoir encensé au début la "zero-lag MA" de Igorad, CodeBreaker l'a démoli 20 pages plus loin. Donc si tu penses à des candidates pour le concours de miss ULLMA, tu peux les inscrire. Il faut qu'elles soient FIR et avoir des ballons d'hélium bien placés, comme dit CodeBreaker.

    Malgré ces perspectives alléchantes je n'aurai pas le temps de contribuer pendant plusieurs jours. A bientôt.


    Laisser un commentaire:


  • max_et_min
    a répondu
    Bonjour, bonsoir, je sais plus !!! bambi

    Merci pour ce fichier, c'est fait c'est en ligne sur la page 95.

    Les menus sont maintenant sous 2 formes par numéro de page et par ordre Alphanumérique au choix, ça devrait vraiment améliorer l'usage,

    il ne faudra pas s'inquiéter s'il le lien pointe une page en dessous ou au dessus car comme je l'ai signalé sur un post précédant les pages peuvent ne pas être exactement calées comme lors de la mise place du fichier de LONGWAY si l'on me le signale je modifierais le lien du menu.
    Merci et bonne nuit ! C'est l'heure

    Laisser un commentaire:


  • bambi
    a répondu
    Envoyé par max_et_min Voir le message
    tous les liens externes sont à supprimer
    Je crois que j'ai le fichier indicateurs.zip de la page 95
    Si tu veux le remettre en ligne, il est ici



    Et encore merci pour ce travail titanesque de remise en ligne de la file

    Laisser un commentaire:


  • max_et_min
    a répondu
    Re Daniel

    A) tous les liens externes sont à supprimer, pour plusieurs raisons, soit le site n'existe plus et pour mon logiciel en plus il faut que je le reprenne( j'ai vu sur la file que le passage à windows 10 n'a pas été sans douleur), pour mes logiciels c'est pareil ils ne pointaient pas sur le bon dossier, tous ça c'est rectifié ça fonctionne bien pour moi, mais pas comestible à diffuser pour le moment, et j'ai des améliorations à apporter.
    B) Pour l'index "Longway" j'ai des erreurs dont je suis en ce moment en train de rectifié, mais globalement c'est bon sauf que tous les liens inférieurs à 10 pointent mal. le 1 par exemple sur 11 mais c'est de ma faute je rectifie dans la soirée. Dans ma récupération des chiffres pour les liens j'ai bien pensé aux centaines mais pas aux unités

    Laisser un commentaire:


  • smallcaps90
    a répondu
    Re Didier,

    Super le répertoire que tu as réalisé avec celui de LONWAY, ainsi plus de longues recherches pour retrouver un sujet qui nous intéresse.!
    Par contre je tombe sur une erreur avec : http://www.le-fichier.com/GRAPHAT/indicateurs.zip.
    Tu ne me dis rien de ton programme de backtest...as-tu travaillé dessus?

    Cordialement.

    Laisser un commentaire:


  • max_et_min
    a répondu
    Bonjour Daniel,
    je pense que c'est ça que tu cherches : http://didier.guillemot.free.fr/95.html
    il y en a probablement d'autres mais en premier jet, j'ai retrouvé cette page, de toutes façons je m'emploi à la prochaine étape à améliorer cette version dont j'ai déjà revu une partie.
    Le fichier LONGWAY, le fichier je l'avais sauvegardé, je suis très conservateur ( dans la série ça peut servir) Il est maintenant hyper opérationnel puisque directement sur chaque page.
    Bonne lecture et pas dans la série nostalgie, il y a du grain moudre dans ces post !

    Laisser un commentaire:


  • smallcaps90
    a répondu
    Bonsoir Didier,

    Merci pour ta version des "posts perdus". Quel boulot de qualité et si utile! Chapeau bas Didier.
    Il va falloir un peu de temps pour pouvoir répondre à tes questions.
    Je ne savais pas que l'outil de LONGWAY existait toujours...est-il encore opérationnel?
    Tu as raison, je ne vais pas faire une fixation sur ceux des posts dont les textes sont illisibles dans les sauvegardes de Parisboy. Oublions çà.
    En son temps, tu avais créé et utilisé un programme de backtest. L'as-tu modifié?Pourrais-tu m'indiquer la page où on peut le trouver? Merci par avance.
    Bonne soirée.
    Cordialement.

    Laisser un commentaire:


  • max_et_min
    a répondu
    Bonjour à tous,

    Les images et le site sont reconstitués, je vous laisse vérifier et me signaler les erreurs à corriger.
    1526 images restructurées sur les 142 premières pages soit 11 images en moyenne pondérée plus celles sur le PDF de 142 à 171 .

    Si certains post ne sont plus d'actualité, la majorité le restent, je vous laisse en juger.



    Je suis en attente des erreurs éventuelles

    Le sommaire établi par LONGWAY a été repris et fait parti intégrante des pages, mais ne couvre pas toute la duée et n'est peut être pas complet, c'était un travail énorme qui avait été fait et qui méritait de faire partie de la restructuration

    Bonne journée

    Laisser un commentaire:


  • smallcaps90
    a répondu
    Bonsoir à toutes et tous,

    Pour améliorer le lissage d’un indicateur le seul moyen à notre disposition n’est pas d’aumgenter la valeur du recul de calcul N dans le cas d’une moyenne mobile par exemple. C’est pourtant ce que nous faisons souvent.

    Une autre solution serait de lisser cette moyenne avec une autre, et ainsi de suite, ce qui en général augmente le retard de la moyenne résultante par rapport aux cours si on ne touche pas à N.
    Moyenne de moyenne de moyenne...et il y en a de célèbres qui ne sont pas forcément à jeter :
    TMA, DEMA, TEMA, ZLEMA, Hull...

    Nous allons voir qu’il est possible de réduire ce lag supplémentaire introduit par l’application du deuxième lissage, ou du troisième voire plus.
    Le procédé que nous allons présenter consiste effectivement à appliquer plusieurs fois cette technique mais en modifiant la façon de l’appliquer que nous verrons plus bas : le TWICING.
    J’ai pris comme « cobaye » le momentum basique d’EDF :

    MOM = Cloture-Cloture(1)

    auquel j’ai appliqué un premier lissage puis quatre autres successivement, tous construits sur le même mode avec des Moyennes Mobiles Simples de période de calcul N=5. Voici ce que cela donne :





    Que constate-t-on ?

    1- Le lissage a augmenté sensiblement dès la 2ème application puis s’accroît ensuite avec l’augmentation du nombre de lissages.
    Nous voulions cette conclusion, sa conséquence est que nous aurons moins de faux signaux.

    2- La déterioration progressive du lag avec l’augmentation du nombre de lissages.
    Nous retrouvons le dilemme : « nombre de lissages/lag », en le modérant car le lag après le 2ème lissage n’est que de 1 tic puis 3 tics après le 3ème lissage, 4 tics après le 4ème lissage et 5 tics après le 5ème, alors que les lags du procédé de lissage par moyenne de moyenne... sont respectivement et environ de 4, 6, 8, 10, 12 tics par rapport à MOM (lag introduit par une moyenne mobile simple = (N-1)/2.
    Les lags du procédé « twicing » sont bien inférieurs à ceux que nous obtiendrions avec le procédé moyenne de moyenne de moyenne...souvent le double ! Le lissage par moyenne de moyenne...est assez efficace malgré tout dès le 2ème lissage lui aussi.

    3- L'augmentation progressive des amplitudes.
    Ceci n’est pas gênant en soi.

    Il est vraisemblable que nous aurions des valeurs de lag différentes avec d’autres types de moyennes, là n’est pas le sujet.

    Le Twicing qui permet d’obtenir ces résultats n’est pas nouveau. Il date de 1977 lorsque le Prof. J.W. Tukey l’a proposé. Nous y avons fait allusion dans le post sur la T3 de Tillson en rappelant ce que sont les lisseurs DEMA et TEMA de P. Mulloy.

    Si cela vous intéresse procurez-vous le bouquin de Tukey sur Internet : « Exploratory Data Analysis », (Pearson Education ),pages 525-541.

    L'idée de Tukey a été la suivante :
    Au lieu de se contenter de calculer la moyenne mobile simple qui sera appliquée à l’indicateur à lisser à chaque pas des N périodes de calcul, Tukey lui ajoutait la moyenne de la différence entre la valeur précédente de l’indicateur et sa moyenne. Il ajoute à la moyenne classique cette sorte de résidu du calcul précédent.

    On utilise des schémas-blocs en traitement du signal, voici du principe du twicing :



    Le terme de « twicing » proposé par Tukey vient du fait que si les deux lisseurs MA ci-dessus sont les mêmes, ils seront bien appliqué deux fois.

    Si nous notons "MOM" le momentum à lisser, en langage GrapheAT Pro, pour le premier pas de lissage nous aurons :


    =========================================================
    MMOM1 = Moyenne(MOM,P2) + Moyenne(MOM – Moyenne(MOM,P2),P2)
    =========================================================


    Où MMOM1 est le résultat du premier lissage de MOM et P2, (N) est le recul de calcul des moyennes.

    MMOM1 = Moyenne(MOM,P2) est ce que l’on fait habituellement quand on calcule une Moyenne Mobile Simple.

    Le terme correcteur que Tukey a proposé : Moyenne(MOM – Moyenne(MOM,P2),P2)
    est la moyenne du résidu du calcul de la moyenne par rapport à la valeur de l’indicateur.

    Ce résidu lissé du calcul précédemment effectué sera ajouté in fine à la moyenne classique. Tukey a constaté que son procédé lissait davantage.

    Maintenant, nous pouvons appliquer ce principe de lissage plusieurs fois de suite comme indiqué plus haut. C’est ainsi que j’ai obtenu les courbes de lissages successifs de 1 fois à 5 fois.

    Remarque :
    Certains chercheurs ont proposé de pondérer les deux termes de l’expression de calcul en affectant un poids différent à chaque partie de cetteexpression :

    La MMOM, moyenne lissée avec le procédé twicing, devient au premier lissage en langage GAP :

    ====================================================================
    MMOM1 = (1+Alpha)*Moyenne(MOM,P2) + Alpha*(Moyenne(MOM – Moyenne(MOM,P2),P2)
    ====================================================================

    Avec : 0<Alpha<1. Il est préconisé de choisir Alpha=0.7, peut-être par analogie avec la T3 de Tilsson (????)
    Cette pondération donne plus d’importance relative au premier terme du calcul sur le 2ème.

    Les résultats obtenus ne sont pas toujours meilleurs qu’avec la version sans pondération.
    Plus loin, ils seront meilleurs...
    Voir ci-dessous, le graphe des deux variantes sans pondération et pondérée, après 3 lissages successifs. J’ai choisi au lieu des moyennes simples, des moyennes linéairement pondérées (que j’aime bien) et dont le lag = (N-1)/3, il est moindre que celui des moyennes simples. J’ai conservé N=5.




    La courbe rouge est la 3ème étape du lissage pondéré avec Alpha=0.5 choisi arbitrairement , la noire celle du lissage sans pondération, toutes deux lissées en mode "twicing".
    Nous constatons une petite amélioration du lag (qui est variable suivant la dynamique des cours) de la version pondérée sur la non pondérée (voir au mois de mars 2020 où le creux de la pondérée est en avance sur celui de la non pondérée). On constate aussi une diminution des amplitudes.
    Il resterait d'ailleurs à étudier l'influence du poids Alpha sur les lissages et de poster le programme GAP complet des lissages successifs par cette méthode.

    Vous pouvez aussi aller consulter un article très intéressant, dont est tiré le schéma-bloc précédent du twicing :
    "Reduced-Delay Data Smoothig" de R. Lyons à :

    https://www.danvillesignal.com/image...-Averagers.pdf
    Une mine d'or! Ramon va "bicher";;; ​ Il va découvrir la moyenne de Hull, la DEMA et la TEMA...'largement débattues sur la file) et leurs schémas-blocs surtout.
    Super le schéma-bloc d'une TEMA ou d'une Hull...celui d'une Moyenne Expo, l'efficiente surtout, et même ceux des "Real Time Twicing"....ou de l"Alternate Real-Time Twicing" mais c'est une autre histoire.
    A chaque jour suffit sa peine...
    Voilà déjà de quoi meubler votre soirée si le sujet vous intéresse.
    A vos questions et commentaires. Merci

    Bien cordialement.​

    Laisser un commentaire:

Chargement...
X