Bjr, MAW & Schoops,
voici une réflexion bien intéressante qui se développe...
Elle nécessiterait d'autres moyens que l'écrit, qui est un peu lent pour développer certains arguments.
Je vais tenter de faire explicite, mais ce sera nécessairement court, je m'en excuse d'avance.
Ok sur ce point. Néanmoins, c'est quand même nier un pan entier de notre économie: l'assurance. Les assureurs ne font rien d'autre que d'estimer les risques, notamment à partir des fréquences, donc du passé. Lorsque vous avez un accident, le tarif de votre police est bien relevé, non?
C'est un fait qui prête souvent à confusion: oui, le hasard crée des tendances (tracez donc sur Excel une marche au hasard et vous verrez se dessiner de belles tendances), et la moyenne s'écarte longuement parfois de 1/2 (pour le lancer de pièce).
D'ailleurs, l'effort de Feller était louable pour son époque, mais aujourd'hui, 10 000 lancers c'est peu de choses, à l'heure de la micro informatique.
Pour comparer le Track Record du Consensus AT que je publie quotidiennement à ce qu'aurait fait le hasard gaussien sur la même période (depuis fin octobre 2007 et le début de la baisse), j'ai calculé - rapidement et sans effort - 10 000 trajectoires stochastiques, puis à nouveau 10 000 (juste "pour voir" si le résultat ne s'écartait pas trop du premier test). J'aurais pu en faire 100 000, le résultat n'aurait pas été très différent. Publication à suivre dans les jours qui viennent, dès que j'ai un moment.
Si, quand même un peu: disons, "un faisceau de présomptions". Une fois de plus, on peu longuement argumenter sur ce point, et finalement... ne pas tomber d'accord quand même!
Je dirais seulement une chose: un boulanger qui fait jour après jour, année après année du bon pain, le fait-il "par hasard"?
Ok, je sens venir les arguments contraires: on va me rétorquer sans doute, mais être boulanger et être trader, ce n'est pas du tout le même métier. D'ailleurs Taleb lui-même fait cette distinction entre les métiers qui - selon lui - ne sont pas soumis au hasard et ceux qui le sont comme celui de trader.
Pourtant, à mon sens, seul le niveau de risque diffère! Le boulanger peut cramer son four, oublier son pain, utiliser une mauvaise farine "sans s'en apercevoir", etc. Il est aussi soumis au risque, mais à un risque moindre qui fait penser qu'il ne peut pas rater son pain.
Or, il ne viendrait à l'idée de personne de prétendre que son "bon pain" est le fruit d'un hasard répété chaque jour, chaque mois, chaque année... Le jour où il rate son pain, allez-vous lui dire: "Ca y est, j'en étais sûr! Ce bon pain pendant des années, c'était donc le hasard!"?
Le boulanger a donc une technique, une approche rationnelle qui lui permet de contrôler dans une certaine mesure ses risques, qui ne sont pas nuls.
Tout comme le gérant a une technique qui lui permet de battre le marché, car celui-ci n'est pas strictement aléatoire.
En lisant son bouquin, cette argumentation m'a réellement interloquée: je dois dire que sur ce point, je suis franchement en désaccord avec Taleb.
J'y ai réfléchi, ai confronté ma vision avec d'autres profs et chercheurs mieux informés que moi (ma formation est financière+stats, mais je ne suis pas un pur matheux ni pur statisticien), et ma vision s'en en vue plutôt renforcée.
Toutefois, j'admets que je puisse avoir tort sur ce point, mais il faudrait m'opposer une argumentation solide et claire pour me détourner de ma conviction qui est la suivante:
Voilà.
Malgré tout le respect que j'ai pour Taleb, qui a fait un très bon boulot de défrichage, je crois qu'il prend le problème à l'envers.
En peu de mots: sur les x% infinitésimaux de gérants restant capables de battre le marché sur (y) années, qu'est ce qui lui dit que ces gérants ne sont pas simplement les "meilleurs boulangers", utilisant les meilleures techniques, les meilleurs outils, les meilleures théories, et que ceux qui ont été éliminés ne sont pas simplement ceux qui sont les moins bien formés, les plus immatures, les plus profanes etc.?
Le problème de son argumentation, qui a défaut d'être fallacieuse (il n'y a pas d'intention maligne) est à mon avis (mais j'ai droit à l'erreur, n'est-ce pas?) simplement erronée, illustre le risque du "tout statistique".
Rappelez vous que Taleb se prend un stylo (un briquet?) dans la g.ueule quand il avance ce type d'argument au chef du desk Bonds.
Pourquoi?
Parce que peut-être simplement, il nie la valeur de l'expérience, de l'expertise, du bon outillage, etc. En deux mots, il compare dans un même échantillon, le simple quidam, le mitron pas encore formé, l'artisan boulanger et le meilleur ouvrier de France! Mais il est fort à parier que les deux premières catégories (50%) seront éliminées le long du processus de sélection d'un bon boulanger.
Il en va de même de son échantillon de gérants, dans lequel les compétences, les formations, la capacité, le bagage mathématique, statistique, de gestion du risque, etc. sont tous différents. Sans compter sur la gestion des émotions!
En d'autres termes un peu plus formels, il dresse une distribution probabiliste gaussienne ex-post d'un phénomène qui n'est pas totalement aléatoire! En tous cas, cette distribution est peu aléatoire pour la profession des boulangers (malgré les risques résiduels dont nous avons parlé), et l'est un peu plus pour les traders. Mais pas complètement, car il y a le biais de la formation, de la gestion du risque et des techniques utilisées. Ce biais fausse la comparaison entre les différents éléments de l'échantillon qui ne partent pas à égalité!
Ok. Mais je ne vois pas très bien le lien entre la vitesse moyenne du Tour de France et mes arguments qui précèdent.
Quoi qu'il en soit, sur la question de la vitesse moyenne d'un Tour de France, les causes sont beaucoup plus nombreuses que ce que l'on laisse - fallacieusement cette fois - penser au grand public.
Croyez-vous que les Tours de Merckx et Hinault soient plus lents que ceux d'Indurain et Armstrong simplement à cause du dopage?
Je relisais encore hier "Mes carnets de route" d'Eddy Merckx (1971) et me trouvais effaré par certaines photos de descentes de cols (Merckx suivi d'Ocaña frôlant un ravin, avec en toile de fond un décor immense et vertigineusement profond) dans des condition de sécurité qu'aucun coureur n'accepterait aujourd'hui.
Il faut donc invoquer beaucoup plus que le simple dopage pour expliquer la différence de vitesse moyenne: la longueur du parcours, les intempéries, la longueur cumulée des cols, l'état du revêtement de la chaussée, la largeur des routes, la main mise des "grands patrons" sur la course (Merckx et Hinault cadenassaient la course, c'est bien connu), le nombre de coureurs par équipe (les équipes de 10 permettaient dans les années 70 plus facilement de cadenasser une course que les équipes de 9 aujourd'hui), etc.
Voilà pour cette trop courte réponse.
Mais il est parfois bon d'aller au delà des évidences.
Bien cordialement pour cet échange fructueux je l'espère.
Tamla
voici une réflexion bien intéressante qui se développe...
Elle nécessiterait d'autres moyens que l'écrit, qui est un peu lent pour développer certains arguments.
Je vais tenter de faire explicite, mais ce sera nécessairement court, je m'en excuse d'avance.
Pour être plus clair, le fait de ne pas avoir eu d'accident de voiture aujourd'hui, comme hier, comme avant hier, comme avant avant hier...ne prédit rien sur demain.
Ok sur ce point. Néanmoins, c'est quand même nier un pan entier de notre économie: l'assurance. Les assureurs ne font rien d'autre que d'estimer les risques, notamment à partir des fréquences, donc du passé. Lorsque vous avez un accident, le tarif de votre police est bien relevé, non?
Pour vous donner une image, le simple fait de lancer une pice de monnaie pour verifier la caractère binomiale du résultat à fait l'objet d'une magnifique étude afin de voir si effectivement sur le long terme on arrivait au même nombre de pile que de face. L'expérience fut réalisée plusieurs fois avec 10000 lancés par Willy Feller en 1950, je vous invite à y jeter un oeil, les résultats sont surprenants (on est parfois très très très loin d'une moyenne nulle).
C'est un fait qui prête souvent à confusion: oui, le hasard crée des tendances (tracez donc sur Excel une marche au hasard et vous verrez se dessiner de belles tendances), et la moyenne s'écarte longuement parfois de 1/2 (pour le lancer de pièce).
D'ailleurs, l'effort de Feller était louable pour son époque, mais aujourd'hui, 10 000 lancers c'est peu de choses, à l'heure de la micro informatique.
Pour comparer le Track Record du Consensus AT que je publie quotidiennement à ce qu'aurait fait le hasard gaussien sur la même période (depuis fin octobre 2007 et le début de la baisse), j'ai calculé - rapidement et sans effort - 10 000 trajectoires stochastiques, puis à nouveau 10 000 (juste "pour voir" si le résultat ne s'écartait pas trop du premier test). J'aurais pu en faire 100 000, le résultat n'aurait pas été très différent. Publication à suivre dans les jours qui viennent, dès que j'ai un moment.
Pour revenir à nos moutons, rien ne permet d'affirmer que sur le long terme et même le très long terme, si vous êtes positif, ce sont vos compétences qui sont à la base de votre réussite.
Si, quand même un peu: disons, "un faisceau de présomptions". Une fois de plus, on peu longuement argumenter sur ce point, et finalement... ne pas tomber d'accord quand même!
Je dirais seulement une chose: un boulanger qui fait jour après jour, année après année du bon pain, le fait-il "par hasard"?
Ok, je sens venir les arguments contraires: on va me rétorquer sans doute, mais être boulanger et être trader, ce n'est pas du tout le même métier. D'ailleurs Taleb lui-même fait cette distinction entre les métiers qui - selon lui - ne sont pas soumis au hasard et ceux qui le sont comme celui de trader.
Pourtant, à mon sens, seul le niveau de risque diffère! Le boulanger peut cramer son four, oublier son pain, utiliser une mauvaise farine "sans s'en apercevoir", etc. Il est aussi soumis au risque, mais à un risque moindre qui fait penser qu'il ne peut pas rater son pain.
Or, il ne viendrait à l'idée de personne de prétendre que son "bon pain" est le fruit d'un hasard répété chaque jour, chaque mois, chaque année... Le jour où il rate son pain, allez-vous lui dire: "Ca y est, j'en étais sûr! Ce bon pain pendant des années, c'était donc le hasard!"?
Le boulanger a donc une technique, une approche rationnelle qui lui permet de contrôler dans une certaine mesure ses risques, qui ne sont pas nuls.
Tout comme le gérant a une technique qui lui permet de battre le marché, car celui-ci n'est pas strictement aléatoire.
Pour conclure, je citerai Taleb, le fameux auteur du Black Swan quelques fois repris ici. Prenez 10000 gérants et vous leur attribuer un chiffre aléatoire qui correspond à la performance de leur gestion. Normalement distribuée, vous allez retrouver une moitié de cette échantillon positive et une moitié négative.
Supprimez la moitié négative (les mauvais gérants, en fait ceux que le hasard a choisi négatif), il reste 5000 gérants.
Si vous refaites l'opération chaque année, au début de la 5ème année vous avez toujours 625 gérants parfaitement positifs sur les 4 ans d'affilés. On peut continuer encore. Cela veut -il dire que ces 625 gérant qui ont un track record positif sur 4 années à la suite ont des compétences intrinsèques (hasardeuses lol)?
En lisant son bouquin, cette argumentation m'a réellement interloquée: je dois dire que sur ce point, je suis franchement en désaccord avec Taleb.
J'y ai réfléchi, ai confronté ma vision avec d'autres profs et chercheurs mieux informés que moi (ma formation est financière+stats, mais je ne suis pas un pur matheux ni pur statisticien), et ma vision s'en en vue plutôt renforcée.
Toutefois, j'admets que je puisse avoir tort sur ce point, mais il faudrait m'opposer une argumentation solide et claire pour me détourner de ma conviction qui est la suivante:
Voilà.
Malgré tout le respect que j'ai pour Taleb, qui a fait un très bon boulot de défrichage, je crois qu'il prend le problème à l'envers.
En peu de mots: sur les x% infinitésimaux de gérants restant capables de battre le marché sur (y) années, qu'est ce qui lui dit que ces gérants ne sont pas simplement les "meilleurs boulangers", utilisant les meilleures techniques, les meilleurs outils, les meilleures théories, et que ceux qui ont été éliminés ne sont pas simplement ceux qui sont les moins bien formés, les plus immatures, les plus profanes etc.?
Le problème de son argumentation, qui a défaut d'être fallacieuse (il n'y a pas d'intention maligne) est à mon avis (mais j'ai droit à l'erreur, n'est-ce pas?) simplement erronée, illustre le risque du "tout statistique".
Rappelez vous que Taleb se prend un stylo (un briquet?) dans la g.ueule quand il avance ce type d'argument au chef du desk Bonds.
Pourquoi?
Parce que peut-être simplement, il nie la valeur de l'expérience, de l'expertise, du bon outillage, etc. En deux mots, il compare dans un même échantillon, le simple quidam, le mitron pas encore formé, l'artisan boulanger et le meilleur ouvrier de France! Mais il est fort à parier que les deux premières catégories (50%) seront éliminées le long du processus de sélection d'un bon boulanger.
Il en va de même de son échantillon de gérants, dans lequel les compétences, les formations, la capacité, le bagage mathématique, statistique, de gestion du risque, etc. sont tous différents. Sans compter sur la gestion des émotions!
En d'autres termes un peu plus formels, il dresse une distribution probabiliste gaussienne ex-post d'un phénomène qui n'est pas totalement aléatoire! En tous cas, cette distribution est peu aléatoire pour la profession des boulangers (malgré les risques résiduels dont nous avons parlé), et l'est un peu plus pour les traders. Mais pas complètement, car il y a le biais de la formation, de la gestion du risque et des techniques utilisées. Ce biais fausse la comparaison entre les différents éléments de l'échantillon qui ne partent pas à égalité!
Pour prendre une métaphore cycliste, puisque Schoops nous parle de Tour de France, il est toujours possible de trouver un coureur quelconque qui batte Armstrong sur une étape, voire sur 2, 5 ou 10, mais en 7 années entre 1999 et 2005, on a pas trouvé un seul coureur capable de la battre sur 21 jours: au fur et à mesure de la longueur du Track, le nombre de coureurs "tirés" (ou pas) au hasard capables de battre L.A. sur la durée se réduisait de plus en plus.
Pas forcément. Regardez la statistique, plus le tour de France est long et difficile et plus ils sont rapides, lol. La logique eut été l'inverse, LOL.
Ok. Mais je ne vois pas très bien le lien entre la vitesse moyenne du Tour de France et mes arguments qui précèdent.
Quoi qu'il en soit, sur la question de la vitesse moyenne d'un Tour de France, les causes sont beaucoup plus nombreuses que ce que l'on laisse - fallacieusement cette fois - penser au grand public.
Croyez-vous que les Tours de Merckx et Hinault soient plus lents que ceux d'Indurain et Armstrong simplement à cause du dopage?
Je relisais encore hier "Mes carnets de route" d'Eddy Merckx (1971) et me trouvais effaré par certaines photos de descentes de cols (Merckx suivi d'Ocaña frôlant un ravin, avec en toile de fond un décor immense et vertigineusement profond) dans des condition de sécurité qu'aucun coureur n'accepterait aujourd'hui.
Il faut donc invoquer beaucoup plus que le simple dopage pour expliquer la différence de vitesse moyenne: la longueur du parcours, les intempéries, la longueur cumulée des cols, l'état du revêtement de la chaussée, la largeur des routes, la main mise des "grands patrons" sur la course (Merckx et Hinault cadenassaient la course, c'est bien connu), le nombre de coureurs par équipe (les équipes de 10 permettaient dans les années 70 plus facilement de cadenasser une course que les équipes de 9 aujourd'hui), etc.
Voilà pour cette trop courte réponse.
Mais il est parfois bon d'aller au delà des évidences.
Bien cordialement pour cet échange fructueux je l'espère.
Tamla
Commentaire