Magicoco je ne vois pas ce qui prête au rire dans mon message.
Je dis juste qu'un élève de première ou de deuxième année de fac (moment où l'on traite les séries numériques ayant pour terme général des suites, des fonctions d'une ou plusieurs variables, ...) est capable de montrer qu'une montante/martingale est vouée à l'échec.
1° La mise au coup N est bien dépendante de la mise au coup N-1 (sinon cela veut dire que les mises sont aléatoires)
2° On peut donc bien écrire la mise au coup N, appelée miseN, comme une combinaison linéaire de la sorte (A et B sont deux coefficients réels): miseN = A.miseN-1 + B
3° Ranger vos tableurs qui ne sont que le reflet de nos cerveaux. C'est le seul point où je suis d'accord avec Xaar, les écarts d'apparitions ne veulent rien dire. Un jour où l'autre, ils sera très grand, trop grand. Encore une fois l'écart d'apparition ne veut rien dire.
4° Donc Magicoco puisque tu te moques, démontre moi qu'une série Sn ayant pour terme général une combinaison linéaire d'une ou de plusieurs mises successives ou non est borné dans l'ensemble des réels.
Ne me dis pas un truc du genre, dans mon système virtuel avec 230 coups qui date de sept 2012, je n'ai jamais eu un écart supérieur à 13. Cela c'est une constatation, pas une démonstration
Le seul qui pourrait être sur la bonne voie ici, c'est Maximus.
Il utilise certainement un des outils les plus puissants des sciences cognitives, les réseaux de neurones.
C'est autre chose que d'établir 4 colonnes dans un tableur
En effet, un RDN va apprendre, oui apprendre, en fonction des données que l'on va lui fournir en entrée.
Un simple perceptron modélisé avec une couche peut reconnaitre la dyslexie alors dites vous bien que si on pouvait gagner aux courses, cela serait fait depuis longtemps.
J'ai pointé là le principal problème des RDN, la quantité d'information (cf la théorie de Shannon) nécessaire pour que l'algorithme d'apprentissage choisi puisse être applicable.
Dans le cas des courses hippiques, c'est peine perdue je pense
