Annonce
Réduire
Aucune annonce.
Ads
Réduire
[Graphe AT PRo : programmation]
Réduire
X
 
  • Filtre
  • Heure
  • Afficher
Tout nettoyer
nouveaux messages

  • Re Daniel

    A) tous les liens externes sont à supprimer, pour plusieurs raisons, soit le site n'existe plus et pour mon logiciel en plus il faut que je le reprenne( j'ai vu sur la file que le passage à windows 10 n'a pas été sans douleur), pour mes logiciels c'est pareil ils ne pointaient pas sur le bon dossier, tous ça c'est rectifié ça fonctionne bien pour moi, mais pas comestible à diffuser pour le moment, et j'ai des améliorations à apporter.
    B) Pour l'index "Longway" j'ai des erreurs dont je suis en ce moment en train de rectifié, mais globalement c'est bon sauf que tous les liens inférieurs à 10 pointent mal. le 1 par exemple sur 11 mais c'est de ma faute je rectifie dans la soirée. Dans ma récupération des chiffres pour les liens j'ai bien pensé aux centaines mais pas aux unités
    Max imum de gains et Min imum de pertes

    Commentaire


    • Envoyé par max_et_min Voir le message
      tous les liens externes sont à supprimer
      Je crois que j'ai le fichier indicateurs.zip de la page 95
      Si tu veux le remettre en ligne, il est ici



      Et encore merci pour ce travail titanesque de remise en ligne de la file

      Commentaire


      • Bonjour, bonsoir, je sais plus !!! bambi

        Merci pour ce fichier, c'est fait c'est en ligne sur la page 95.

        Les menus sont maintenant sous 2 formes par numéro de page et par ordre Alphanumérique au choix, ça devrait vraiment améliorer l'usage,

        il ne faudra pas s'inquiéter s'il le lien pointe une page en dessous ou au dessus car comme je l'ai signalé sur un post précédant les pages peuvent ne pas être exactement calées comme lors de la mise place du fichier de LONGWAY si l'on me le signale je modifierais le lien du menu.
        Merci et bonne nuit ! C'est l'heure
        Max imum de gains et Min imum de pertes

        Commentaire


        • Bonjour Smallcaps,

          Merci beaucoup pour toutes ces informations et en particulier sur le twicing que je tu viens de me faire découvrir.

          Mais … j'avais récemment été intrigué par une partie du code des clones JMA dont nous avons déjà parlé : une première étape consiste à créer un lissage particulier qui entre ensuite dans deux équations couplées qui conduisent à la JMA. Ce lissage, le voici :

          Une première moyenne exponentielle lisse les prix x
          y0 = EMA(x, 1-jalpha) = jalpha*y0[1] + (1 – jalpha)*x
          (jalpha pour alpha de Jurik car habituellement dans une EMA, le facteur d'amortissement alpha vaut 1 – jalpha et pondère x)

          Le résidu x – y0 est ensuite moyenné
          y1 = EMA(x – y0, 1-jbeta) = jbeta*y1[1] + (1 – jbeta)*(x – y0)

          et le résultat est ajouté à la première moyenne y0 avec une pondération pour constituer un indicateur lissé des prix
          y2 = y0 + phaseRatio*y1 = EMA(x,1-jalpha) + phaseRatio*EMA(x - y0, 1-jbeta)
          phaseRatio qui pondère la MA du résidu est un paramètre d'entrée qui peut être choisi entre 0.5 et 2.5.

          Bon, ce n'est pas tout le traitement mais Jurik faisait donc du twicing, en douce sans rien dire à personne !

          jbeta est déterminé à partir de la période de calcul donnée par l'utilisateur et jalpha = jbeta^power . Dans la première version de la JMA (et dans celle de Sohocool), power peut être choisi par l'utilisateur (2 par défaut, donc jalpha est le carré de jbeta) mais dans la seconde (longue) version qui est adaptative, il est calculé dynamiquement en fonction de critères de volatilité déterminés à partir des prix.

          Même si ce processus de lissage n'est pas du tout intuitif pour moi pour le moment, les résultats me semblent très intéressants.

          Ahhh, Ramon, tient en grande estime la moyenne de Hull ! Elle peut d'ailleurs s'interpréter comme une MA (filtre passe bas) à laquelle on ajoute un MACD (filtre passe-bande) qui a la propriété, en jouant sur les périodes de calcul, de renforcer la réponse juste avant la fréquence de coupure. Puis, pour terminer une autre MA sur l'ensemble pour assurer un filtrage des périodes courtes plus efficace. En fait, cela revient à appliquer un coefficient de surtension à un filtre passe-bas pour le rendre plus réactif. Il faudra que l'on regarde sa fonction de transfert.

          Donc dans tous ces cas, on utilise des techniques un peu semblables : renforcer l'information avant la coupure (facteur de surtension) ou traiter le résidu d'un filtre passe-bas (twicing).

          Avant que la tendance se transforme et s'inverse, c'est vraisemblablement dans une bande de fréquence supérieure qu'apparaissent les premiers signes de retournement. Donc un bon filtrage du résidu, avec un minimum de retard peu donner de bons résultats. D'ailleurs, quelle que soit la MA utilisée, le rajout du résidu compense instantanément son retard ! Comme le résidu est sensiblement de moyenne nulle, certaines techniques difficilement applicables avec le trend deviennent possibles, comme par exemple la transformée de Fourier.
          Et Smallcaps, il se pourrait que la SSA du résidu présente de meilleures dispositions quand le spectre singulier n'est pas saturée par les composantes du trend (??)



          Tu suggérais que l'on pourrait s'attarder un moment sur les ULLMA. Je suis d'accord, pour pouvoir faire un bilan avant de passer à autre chose. Il faut déjà recenser les ULLMA dont on dispose. J'ai scanné rapidement Optimized Trend Trading à la recherche d'autre contributions (il me reste encore une quinzaine de pages à explorer). Après son premier essai (que nous venons de tester), asm8089 a proposé une nouvelle version. Après avoir encensé au début la "zero-lag MA" de Igorad, CodeBreaker l'a démoli 20 pages plus loin. Donc si tu penses à des candidates pour le concours de miss ULLMA, tu peux les inscrire. Il faut qu'elles soient FIR et avoir des ballons d'hélium bien placés, comme dit CodeBreaker.

          Malgré ces perspectives alléchantes je n'aurai pas le temps de contribuer pendant plusieurs jours. A bientôt.


          Caramba! Encore raté ...

          Commentaire


          • En 1970 dans son livre "Profit Magic" Hurst nous parlait déjà de l'utilisation des "résidus" . C'est au Chapitre 6 - page 109

            Résidu = Prix - Moyenne Mobile Centrée

            NOW TURN YOUR MOVING AVERAGES INSIDE OUT

            You're familiar now with the principal characteristics of a Moving Average, and how the price-motion model generates criteria for getting the most from them. In this section, you will find they have still more uses.

            Let's ask ourselves the question:

            Is there useful information in what a Moving Average throws away ?

            We recall that a Moving Average "smooths" data. It does this by reducing the magnitude of short duration fluctuations, while permitting the longer ones to remain. In short, it throws away the short fluctuations.

            What a Moving Average Throws Away Can Be Recovered By Subtracting The Average From The Price-Motion Data

            An example will clarify how this works.

            Suppose you form an 11-week Moving Average of the weekly mean prices of a stock.

            This means that in the Moving Average the magnitude of any cyclic component of duration exactly equal to 11 weeks is reduced to zero.

            Thus, the average contains only cyclic components present in the price motion which have durations longer than 11 weeks.

            Subtracting the average from the price motion removes all these longer duration fluctuations, leaving only those shorter than 11 weeks that did not appear in the average (or were "thrown away").

            The only critical item to remember (as always) is to match the Moving Average and price data points properly before subtracting-taking into account the half-span time lag previously described.


            Commentaire


            • Bonsoir à tous,

              par ces temps chauds des nouveaux menus de toute "fraicheur" viennent de sortir : http://didier.guillemot.free.fr/sommaireint.html

              - Trié par Nom de l'indicateur

              - Trié par Numéro de page

              - Trié par intervenant

              Plusieurs modifications ont également été faites, je ne rentre pas dans les détails, mais l'outil devient intéressant et facile à se servir.

              Bonne soirée.

              Max imum de gains et Min imum de pertes

              Commentaire


              • Bonsoir,

                Un grand merci à Bambi pour sa page 95 qui manquait.
                Encore merci à Parisboy pour son rappel des bonnes idées de Hurst, entre autres celles des "résidus" de lissage. Cela date de 1970 (dans le "grand livre de Hurst") et de 1977 pour l'idée du twicing de Tukey qui va un peu plus loin. Evidemment les bonnes idées ont toujours circulé dans la communauté des ingénieurs ou non-mathématiciens ou non et de tous les traders. Tukey explique en plus comme utiliser ces "résidus" de lissage.
                Merci enfin à max_et_min pour la ténacité qu'il a eue pour terminer ce document essentiel des anciens post de la file, dorénavant accessibles à tout un chacun (chacune), de trois façons : nom indic, n° de page de la file, nom de l'intervenant. Extra vraiment!
                Bon dimanche à vous.
                Cordialement.

                Commentaire


                • Bonjour Parisboy

                  Merci de nous rappeler les travaux de Hurst. J'ai dans mes archives son vieux grimoire numériquement dépoussiéré, que tu nous avais sans doute transmis il y a "quelque temps". La définition du résidu et son utilisation n'est pas si simple.

                  Si j'ai bien compris, Hurst dit que si on veut utiliser correctement le résidu il faut le synchroniser avec la moyenne mobile donc le décaler pour compenser le retard. Ainsi le résidu de Hurst (RH) peut s'écrire

                  RH = x[(N-1)/2] – y0

                  en utilisant entre crochet l'indice du prix x considéré à partir de la valeur actuelle. Cela permet logiquement de synchroniser RH avec la moyenne centrée de longueur N, retardée de (N-1)/2 par l'opération de filtrage. Si on voulait isoler des composantes de périodes plus courtes en filtrant RH, il faudrait utiliser un filtre de fréquence de coupure plus élevée que pour y0, donc avec une longueur N1 plus faible (N1<N). Le résultat y1 aura un retard de (N1-1)/2.

                  Un second type de résidu, qu'on peut appeler résidu commun, correspond à R = x – y0.

                  C'est celui utilisé par Tukey pour son twicing et dont Smallcaps nous a montré le fonctionnement. Dans cette opération, le filtre de période P est toujours le même (même fréquence de coupure), ce qui veut dire que l'on récupère dans la bande passante des composantes qui existent toujours dans R (pourquoi ?). Celles-ci viennent reboucher les aspérités du premier filtrage, comme le ferait un enduit de lissage. On laisse sécher, mais au lieu de poncer pour supprimer les aspérités résiduelles, on calcule un nouveau résidu et on recommence l'opération en appliquant une nouvelle couche d'enduit. Couche après couche, l'épaisseur (l'amplitude) et le retard augmente (le retard dépend-il de l'épaisseur de la couche ?).

                  Quand je pense que Hurst et Tukey ont pu jouer au ping-pong ensemble … Bon, bien tout cela demande réflexion …


                  Caramba! Encore raté ...

                  Commentaire


                  • Envoyé par Ramon Voir le message
                    Bonjour Parisboy

                    Merci de nous rappeler les travaux de Hurst. J'ai dans mes archives son vieux grimoire numériquement dépoussiéré, que tu nous avais sans doute transmis il y a "quelque temps". La définition du résidu et son utilisation n'est pas si simple.

                    Si j'ai bien compris, Hurst dit que si on veut utiliser correctement le résidu il faut le synchroniser avec la moyenne mobile donc le décaler pour compenser le retard. Ainsi le résidu de Hurst (RH) peut s'écrire

                    RH = x[(N-1)/2] – y0

                    en utilisant entre crochet l'indice du prix x considéré à partir de la valeur actuelle. Cela permet logiquement de synchroniser RH avec la moyenne centrée de longueur N, retardée de (N-1)/2 par l'opération de filtrage. Si on voulait isoler des composantes de périodes plus courtes en filtrant RH, il faudrait utiliser un filtre de fréquence de coupure plus élevée que pour y0, donc avec une longueur N1 plus faible (N1<N). Le résultat y1 aura un retard de (N1-1)/2.

                    Un second type de résidu, qu'on peut appeler résidu commun, correspond à R = x – y0.

                    C'est celui utilisé par Tukey pour son twicing et dont Smallcaps nous a montré le fonctionnement. Dans cette opération, le filtre de période P est toujours le même (même fréquence de coupure), ce qui veut dire que l'on récupère dans la bande passante des composantes qui existent toujours dans R (pourquoi ?). Celles-ci viennent reboucher les aspérités du premier filtrage, comme le ferait un enduit de lissage. On laisse sécher, mais au lieu de poncer pour supprimer les aspérités résiduelles, on calcule un nouveau résidu et on recommence l'opération en appliquant une nouvelle couche d'enduit. Couche après couche, l'épaisseur (l'amplitude) et le retard augmente (le retard dépend-il de l'épaisseur de la couche ?).

                    Quand je pense que Hurst et Tukey ont pu jouer au ping-pong ensemble … Bon, bien tout cela demande réflexion …

                    Bonjour Ramon

                    Hurst ne parle pas à ce stade d'une une utilisation "correcte " du résidu mais au moment de la justification de son choix d'utiliser des Moyennes Mobiles Centrées , il dit que c'est la façon "correcte " d'utiliser les moyennes mobiles.

                    Dans le passage cité en anglais, il se pose la question "peut on faire quelque chose des infos / données que la moyenne mobile (centrée) n'a pas retenue ?"

                    Donc si l'on soustrait la moyenne mobile centrée des cours et que l'on appelle ce "reste" "résidu", par définition la moyenne mobile étant "centrée" , le résidu l'est aussi.

                    Le point clé pour un trader est que le "résidu" nous donne l'amplitude du "cycle" éliminé par la moyenne mobile

                    Commentaire


                    • USE THE INVERSE HALFSPAN AVERAGE TO IMPROVE YOUR TIMING

                      There are many ways in which you can make use of the Inverse Moving Average.

                      One of the most important of these is in connection with the half-span average concept. Let's see how it can work for you.

                      Direct your attention to Figure VI-8.

                      Cliquez sur l'image pour la voir en taille réelle 

Nom : 		HURST VI-8.jpg 
Affichages :	259 
Taille :		71,5 Ko 
ID : 			1980105

                      Here is a weekly plot of Alloys Unlimited over the entire time period covered by illustrations VI-1 through VI-7.

                      This time, instead of using a 10-week average, an 11-week one is shown. With the number of elements of the average being "odd," each average datum directly corresponds (in time) to a weekly price datum instead of falling in midweek (as for the ten-week one).

                      In this way subtraction can be accomplished directly without need for interpolation.

                      As formed, each Moving Average is subtracted from the corresponding mean weekly price of the stock The results could be plotted as points about a "zero" base line, either by themselves or connected by straight lines.

                      However, the process of erecting vertical lines from zero to the value of the difference (as in Figure VI-8) seems to provide the eye with more information. What can we make of this plot ?

                      First of all,the dominant cyclic component just shorter in duration than the trading cycle is now clearly evident.

                      Counting weeks (low-to-low and high-to-high) and averaging gives a nominal duration of 12.7 weeks, with a "spread" from 10 to 16.

                      The correlation with an expected component of the price-motion model is obvious.

                      Secondly, it is seen that the magnitude of this cycle averages 7 points peak-to-peak ( +/- 3.50 points).

                      It is seen that the inverse average provides cycle magnitude directly, without necessity for, and without the error inherent in, the construction of envelopes!

                      Thirdly, we note that a simple process of subtraction converts a half-span average (which is vitally useful on its own) into that specific inverse average which is most capable of identifying the component of duration just less than that of the trading cycle.

                      As seen in previous chapters, identification of this component is an essential part of the process of setting up trailing loss levels and sell signals in general. And, you will normally have already computed the half-span average anyway !

                      Now. How does all this aid transaction timing?

                      Return to Figure VI-6 and VI-7.

                      In the discussions regarding these figures it is noted that the half-span average had put us in the stock short at 51 to 52. But, prices seemed to refuse to go down -oscillating instead from 44 to 51 for 9 weeks.

                      The half-span analysis assured us the stock was headed for 40.625. Does the inverse half-span confirm this conclusion ?

                      In Figure VI-8, the inverse half-span average is 2 weeks away from a low of the2.7-week cycle.

                      The stock price is an additional 5 weeks along (due to the lag of the average). So, we're now 7 weeks along on a component (next shorter in duration than the trading cycle) which averages 12.7 weeks, and varies from 10 to 16 weeks.

                      We expect the next significant low of this cycle in a time zone 3 to 9 weeks from now.

                      In addition, the 21.7-week (average) duration trading cycle (which varies from 20 to 23 weeks in length) is now 19 weeks along from a low.

                      We expect the next significant low of this cycle in a time zone 1 to 4 weeks from now.

                      With both of these important cycles due to low out in the same general time period, we know the stock still has more to go on the downside.

                      In fact, taking 6/13 of 7 points, we expect about 3.7 points more on the downside from the 12.7-week cycle alone.

                      An additional 3/22 of 14 or 1.9 points remains in the 2 1.7-week cycle.

                      The present price is 45 which, less 4.6, leaves 40.50 as a low-out estimate.

                      We conclude that the stock will reach approximately 40.50 within 1 to 9 weeks.

                      This estimate compares almost identically with that obtained using the halfspan average alone (40.625 in 3 weeks )- yet was obtained using information the halfspan average "threw away"!

                      With this additional reassurance, we do not hesitate to remain in our short Position - and the stock proceeded to bottom out at 41 the next week, nicely within our tolerance zone !







                      Commentaire


                      • C'est la dernière phrase de Hurst que tu citais dans ton premier post Parisboy, qui m'a mis la puce à l'oreille et amené à considérer deux types de résidu (traduction DeepL) :
                        "Le seul élément essentiel à retenir (comme toujours) est de faire correspondre correctement la moyenne mobile et les points de données de prix avant de soustraire, en tenant compte du décalage de la moitié de la durée décrite précédemment."

                        Pour confirmer l'intuition que les deux résidus n'avaient pas le même contenu spectral, j'ai fait une analyse sur le CAC40 de 2011 à 2019 (2300 jours) lissé avec une TMA de longueur 19 dont les caractéristiques sont sur le post #2804 (retard de 9 UT, fréquence de coupure 0.032). Les deux résidus RH et R sont calculés selon les définitions données précédemment : pour le résidu de Hurst RH, la TMA est translatée de 9 jours vers la gauche avant d'effectuer la soustraction et pour le résidu commun R on soustrait directement sans rien changer.

                        Les deux résidus sont analysés de la même façon par une procédure classique d'analyse spectrale (Welch). Dans une fenêtre glissante (comme pour une MA), on fait une transformée de Fourier, puis on déplace cette fenêtre, on recommence et à chaque fois on somme les énergies des raies spectrales. On finit par obtenir pour les deux résidus une distribution de l'énergie moyenne sur l'échelle des fréquences (normalisées) comme représenté ci-dessous.


                        Cliquez sur l'image pour la voir en taille réelle   Nom : 		CAC40_residus_TMA.jpg  Affichages :	0  Taille :		80,7 Ko  ID : 			1980204




                        La ligne verticale représente la séparation entre la bande-passante (fréquences inférieures à 0.032 donc périodes supérieures à 31 UT) et la bande atténuée (fréquences supérieures à 0.032). La différence entre les deux résidus est clairement visible :

                        Le résidu de Hurst RH (où la TMA a été translaté de 9 pas vers le passé) ne contient pratiquement plus d'énergie en dessous de la fréquence de coupure 0.032 de la TMA. Si on veut extraire des périodes plus courtes c'est ce résidu qu'il faudra utiliser.

                        Le résidu commun R contient toujours une quantité d'énergie non négligeable en dessous de la fréquence de coupure. On comprend que parce que la TMA n'est pas à sa place, la soustraction des composantes de la bande passante est imparfaite pour les éliminer complètement du résidu. Mais ce phénomène a été mis en œuvre par Tukey dans le twicing pour combler les aspérités par des filtrages successifs de ce résidu (en rajoutant des couches d'enduit ).

                        C'est anecdotique, mais vous remarquerez que les deux endroits après la fréquence de coupure où les courbes s'écartent légèrement, c'est quand les lobes de la fonction de transfert de TMA réduisent localement l'affaiblissement (à 0.15 et 0.25 environ).
                        Caramba! Encore raté ...

                        Commentaire


                        • je continue mes petites publications "hurstiennes"

                          - Profit Magic - Ch. 6 - P 112

                          TRY THE INVERSE AVERAGE IN OTHER WAYS

                          An inverse Moving Average can be formed from an average of any span.

                          Any time you wish to inspect a given component more accurately, simply form an average of span equal to the component duration.

                          The associated inverse average must show the desired fluctuation at exactly the correct magnitude, since it is present in price to this extent but is precisely zero in the Moving Average.

                          Taking the difference between the two displays this particular fluctuation on a zero baseline in all its glory !

                          This usage is particularly important as you are approaching buy and sell points.

                          Extract the higher frequency components in this way, and you will never have to guess about trend line validity and channel turn-around.


                          Another excellent application :
                          Extract your trading cycle in this manner before you act on buy signals.

                          The state of the magnitude-duration fluctuation situation is clearly discernible once the large, long components are removed.

                          You may save yourself from acting on a perfectly valid buy signal only to find your trading cycle has shrunk to near zero in size !


                          Try the Inverse Average at Triangle resolution points.

                          Once again, the mechanics of formation of these patterns via magnitude-duration fluctuation of short duration components will be made very clear.

                          In addition, the short duration component information derived willaid greatly in pinpointing pattern resolution times.

                          Commentaire


                          • Bonsoir Ramon...et Parisboy,

                            Je réponds à ton message d'il y a quelques jours. J'étais absent ce week end et ma réponse date un peu excuse-m'en.
                            J'aime beaucoup ta métaphore du lissage à l'enduit pour imager ce qu'est le twicing de Tukey.

                            Je n'avais pas vu que Jurik utilisait le mode twicing en catimini! Après tout il en avait le droit et il n'a pas été le seul...
                            Je ne doutais pas que tu connaissais la Hull moving average de Alan Hull, à ne pas confondre avec la moyenne de Uhl (du prof Andréa Uhl de l'Université de Salzburg) qui n'est pas mal non plus. A poster...
                            Pendant que nous y sommes, on peut citer aussi la moyenne de 3ème génération de l'allemand Dürchner. Je la posterai aussi...car c'est à ma connaissance une "vraie" zéro lag...quasiment.
                            Pour revenir à la moyenne de Hull, le schéma bloc de la figure 9 de l'article :
                            "Reduced-Delay Data Smoothing" de R.Lyons que j'ai cité dans mon post sur le twicing est très explicite dans sa conception.



                            On y voit bien les 3 sous-filtres qui la composent :
                            - un filtre composé d'une moyenne mobile simple( N périodes de calcul),
                            - un filtre moyenne simple ( N/2 périodes de calcul) dont la sortie est multipliée par 2 et dont ce résultat est retranché de celui du premier sous filtre,
                            - un filtre moyenne mobile simple de période racine carrée de N qui reçoit le résultat des deux premiers filtres agencés comme dit.
                            Je ne parle pas des coefficients qui sont appliqués aux différents sous-filtres.
                            Elle est originale la moyenne de Hull! Comment Alan Hull a-t-il procédé pour trouver cette petite merveille? Difficile de le savoir.

                            Oui, pour réduire le lag d'un lissage tout en ayant un "bon lissage" (il existe des critères pour l'apprécier), on peut utiliser des techniques un peu semblables.
                            Un article présente 3 méthodes pour débruiter des image 2D mais qui les développe avec des vecteurs, donc 1D, pour les explications :
                            "A General Iterative Regularization Framework for Image Denoising3 Par Michael Charest et d'autres
                            téléchargeable sur citeseer.ist.edu
                            Le twicing de Tukey y est présenté (la 2ème dans le développement de l'article).
                            Celle proposée par les auteurs( la 3ème) semble intéressante aussi mais je n'ai pas encore eu le temps de la tester.
                            A voir aussi comme tu le conseilles, la "SSA des résidus"...pas le temps encore.

                            Oui la ULLMA m'intéresse toujours et je souhaitais un trancodage du programme pour Metatrader en un peudo-langage qui serait facilement transposable sur GAP. Merci à qui voudrait bien le faire.
                            Dans le même domaine, Mladic encense une autre moyenne à l'occasion d'un post sur le PGO (Pretty good Oscillator de M. Johnson, une vision différente des bandes de Bollinger). Ce PGO n'a jamais été posté ici, c'est un indicateur sympa....encore plus sympa une fois "twicingué". Mladic lisse ce PGO, qui est souvent bruyant, avec une moyenne due à Tim Morris dont j'ai le programme pour Metatrader. Encore un à trancoder...Je sais que notre ami phg utilise (utilisait?) le PGO.

                            Enfin dans le domaine des FIR, n'oublions pas Ehlers qui, bien que mis de côté pour ne pas dire exclu, par les membres de la file "Optimized Trend Trading" (que tu analyses sur ForexFactory), Ehlers disais-je, proposait : "Zero-Lag Data Smoothers" un article en juillet 2002 sur TASC, dispo sur le web. Dans cet article il expliquait simplement quelques notions sur la théorie du signal et développait son filtre/moyenne préféré à l'époque, car depuis il a fait du chemin... C'est un FIR sans twicing, à quasiment zero lag d'ordre 6 (7 coefficients).
                            Il n'a pas été posté ici sur l'ancien site. Je vous en donne l'équation :

                            Filtre_Zero_Lag = (Price+3.5*Price[1]+4.5*Price[2]+3*Price[3]+0.5*Price[4]-0.5*Price[5]-1.5*Price[6])/10.5

                            On peut choisir pour la variable d'entrée "Price" pratiquement ce que l'on veut : des éléments des cours, des indicateurs...

                            Merci aussi pour ton étude fréquentielle des résidus "hurstien" et "non centrés" de la TMA. Très intéressant sujet.

                            Merci aussi à Parisboy pour ses extraits du bouquin de Hurst, une vue autre mais du même sujet..
                            Il y aurait encore beaucoup de choses à dire...Ce sera pour une autre fois.
                            Bonne soirée.







                            Commentaire


                            • Envoyé par smallcaps90 Voir le message
                              Bonsoir Ramon...et Parisboy,

                              Je réponds à ton message d'il y a quelques jours. J'étais absent ce week end et ma réponse date un peu excuse-m'en.
                              J'aime beaucoup ta métaphore du lissage à l'enduit pour imager ce qu'est le twicing de Tukey.

                              Je n'avais pas vu que Jurik utilisait le mode twicing en catimini! Après tout il en avait le droit et il n'a pas été le seul...
                              Je ne doutais pas que tu connaissais la Hull moving average de Alan Hull, à ne pas confondre avec la moyenne de Uhl (du prof Andréa Uhl de l'Université de Salzburg) qui n'est pas mal non plus. A poster...
                              Pendant que nous y sommes, on peut citer aussi la moyenne de 3ème génération de l'allemand Dürchner. Je la posterai aussi...car c'est à ma connaissance une "vraie" zéro lag...quasiment.
                              Pour revenir à la moyenne de Hull, le schéma bloc de la figure 9 de l'article :
                              "Reduced-Delay Data Smoothing" de R.Lyons que j'ai cité dans mon post sur le twicing est très explicite dans sa conception.



                              On y voit bien les 3 sous-filtres qui la composent :
                              - un filtre composé d'une moyenne mobile simple( N périodes de calcul),
                              - un filtre moyenne simple ( N/2 périodes de calcul) dont la sortie est multipliée par 2 et dont ce résultat est retranché de celui du premier sous filtre,
                              - un filtre moyenne mobile simple de période racine carrée de N qui reçoit le résultat des deux premiers filtres agencés comme dit.
                              Je ne parle pas des coefficients qui sont appliqués aux différents sous-filtres.
                              Elle est originale la moyenne de Hull! Comment Alan Hull a-t-il procédé pour trouver cette petite merveille? Difficile de le savoir.

                              Oui, pour réduire le lag d'un lissage tout en ayant un "bon lissage" (il existe des critères pour l'apprécier), on peut utiliser des techniques un peu semblables.
                              Un article présente 3 méthodes pour débruiter des image 2D mais qui les développe avec des vecteurs, donc 1D, pour les explications :
                              "A General Iterative Regularization Framework for Image Denoising3 Par Michael Charest et d'autres
                              téléchargeable sur citeseer.ist.edu
                              Le twicing de Tukey y est présenté (la 2ème dans le développement de l'article).
                              Celle proposée par les auteurs( la 3ème) semble intéressante aussi mais je n'ai pas encore eu le temps de la tester.
                              A voir aussi comme tu le conseilles, la "SSA des résidus"...pas le temps encore.

                              Oui la ULLMA m'intéresse toujours et je souhaitais un trancodage du programme pour Metatrader en un peudo-langage qui serait facilement transposable sur GAP. Merci à qui voudrait bien le faire.
                              Dans le même domaine, Mladic encense une autre moyenne à l'occasion d'un post sur le PGO (Pretty good Oscillator de M. Johnson, une vision différente des bandes de Bollinger). Ce PGO n'a jamais été posté ici, c'est un indicateur sympa....encore plus sympa une fois "twicingué". Mladic lisse ce PGO, qui est souvent bruyant, avec une moyenne due à Tim Morris dont j'ai le programme pour Metatrader. Encore un à trancoder...Je sais que notre ami phg utilise (utilisait?) le PGO.

                              Enfin dans le domaine des FIR, n'oublions pas Ehlers qui, bien que mis de côté pour ne pas dire exclu, par les membres de la file "Optimized Trend Trading" (que tu analyses sur ForexFactory), Ehlers disais-je, proposait : "Zero-Lag Data Smoothers" un article en juillet 2002 sur TASC, dispo sur le web. Dans cet article il expliquait simplement quelques notions sur la théorie du signal et développait son filtre/moyenne préféré à l'époque, car depuis il a fait du chemin... C'est un FIR sans twicing, à quasiment zero lag d'ordre 6 (7 coefficients).
                              Il n'a pas été posté ici sur l'ancien site. Je vous en donne l'équation :

                              Filtre_Zero_Lag = (Price+3.5*Price[1]+4.5*Price[2]+3*Price[3]+0.5*Price[4]-0.5*Price[5]-1.5*Price[6])/10.5

                              On peut choisir pour la variable d'entrée "Price" pratiquement ce que l'on veut : des éléments des cours, des indicateurs...

                              Merci aussi pour ton étude fréquentielle des résidus "hurstien" et "non centrés" de la TMA. Très intéressant sujet.

                              Merci aussi à Parisboy pour ses extraits du bouquin de Hurst, une vue autre mais du même sujet..
                              Il y aurait encore beaucoup de choses à dire...Ce sera pour une autre fois.
                              Bonne soirée.






                              Bonsoir small caps,
                              Je suis au fin fond des Pyrénées pour un temps suffisant à oublier ce qu'est un écran.
                              Vrai que j'apprécie pgo, cependant y aura-t-il un jour quelque chose qui culmine en même temps que les prix et pas avant ? *
                              (lorsque le sous jacent persiste à monter)
                              Voir pgo en hebdo et mensuel.
                              ​​​​​​
                              *Wto imbattable sur ce plan ?

                              ​​​​​​Ici ce sont d'autres courbes.... Planeur is tes entre-autres..

                              Au plaisir, cordialement,
                              Philippe.

                              Commentaire


                              • Bonsoir phg,

                                Merci pour tes nouvelles du front...des vacances. Chanceux qui plane en Pyrénées! Perso je partirai demain pour une quinzaine en Suisse...sans confinement hein!
                                Où en es-tu de l'utilisation de la SSA avec Metatrader? T'en serais-tu éloigné?
                                Le PGO? Ce n'est finalement qu'une autre façon de représenter les Bollinger's sous les cours donc rien de bien nouveau à en attendre.
                                Le WTO par contre, çà fonctionne bien.
                                Pour le moment ici nous sommes toujours sur les filtres/moyennes que Ramon décortique "spectralement". Et c'est super intéressant.
                                Rien d'étonnant que Parisboy y mette du sien aussi.

                                Je te souhaite bon séjour sans écran.

                                Commentaire

                                Chargement...
                                X