. . . . . . "cha\u00EEne de Markov"@fr . . . . . "Markow-Kette"@de . . . . . . . . "2014-09-05"^^ . . . . . . . . . . . . . . "Philippe Gay"@fr . . . . . . "En math\u00E9matiques, une cha\u00EEne de Markov est un processus de Markov \u00E0 temps discret, ou \u00E0 temps continu et \u00E0 espace d'\u00E9tats discret. Un processus de Markov est un processus stochastique poss\u00E9dant la propri\u00E9t\u00E9 de Markov : l'information utile pour la pr\u00E9diction du futur est enti\u00E8rement contenue dans l'\u00E9tat pr\u00E9sent du processus et n'est pas d\u00E9pendante des \u00E9tats ant\u00E9rieurs (le syst\u00E8me n'a pas de \u00AB m\u00E9moire \u00BB). Les processus de Markov portent le nom de leur inventeur, Andre\u00EF Markov. Un processus de Markov \u00E0 temps discret est une s\u00E9quence de variables al\u00E9atoires \u00E0 valeurs dans l\u2019espace des \u00E9tats, qu'on notera dans la suite. La valeur est l'\u00E9tat du processus \u00E0 l'instant Les applications o\u00F9 l'espace d'\u00E9tats est fini ou d\u00E9nombrable sont innombrables : on parle alors de cha\u00EEne de Markov ou de cha\u00EEnes de Markov \u00E0 espace d'\u00E9tats discret. Les propri\u00E9t\u00E9s essentielles des processus de Markov g\u00E9n\u00E9raux, par exemple les propri\u00E9t\u00E9s de r\u00E9currence et d'ergodicit\u00E9, s'\u00E9noncent ou se d\u00E9montrent plus simplement dans le cas des cha\u00EEnes de Markov \u00E0 espace d'\u00E9tats discret. Cet article concerne pr\u00E9cis\u00E9ment les cha\u00EEnes de Markov \u00E0 espace d'\u00E9tats discret. Andre\u00EF Markov a publi\u00E9 les premiers r\u00E9sultats sur les cha\u00EEnes de Markov \u00E0 espace d'\u00E9tats fini en 1906. Une g\u00E9n\u00E9ralisation \u00E0 un espace d'\u00E9tats infini d\u00E9nombrable a \u00E9t\u00E9 publi\u00E9e par Kolmogorov en 1936. Les processus de Markov sont li\u00E9s au mouvement brownien et \u00E0 l'hypoth\u00E8se ergodique, deux sujets de physique statistique qui ont \u00E9t\u00E9 tr\u00E8s importants au d\u00E9but du XXe si\u00E8cle."@fr . . . . . . . . . . . . . . . "Processo markoviano"@it . . . . . . . . . . . . . . . . . . . "X\u00EDch Markov"@vi . . . . . . . . "\u0426\u0435\u043F\u044C \u041C\u0430\u0440\u043A\u043E\u0432\u0430"@ru . . . . "Markovketting"@af . . "\u041B\u0430\u043D\u0446\u044E\u0433\u0438 \u041C\u0430\u0440\u043A\u043E\u0432\u0430"@uk . . . . . . "Markov chain"@en . . . . . . . . . . "47484"^^ . . . . . . . . . . . . . "fr"@fr . . . . . . . "\u9A6C\u5C14\u53EF\u592B\u94FE"@zh . . . . . . . "En math\u00E9matiques, une cha\u00EEne de Markov est un processus de Markov \u00E0 temps discret, ou \u00E0 temps continu et \u00E0 espace d'\u00E9tats discret. Un processus de Markov est un processus stochastique poss\u00E9dant la propri\u00E9t\u00E9 de Markov : l'information utile pour la pr\u00E9diction du futur est enti\u00E8rement contenue dans l'\u00E9tat pr\u00E9sent du processus et n'est pas d\u00E9pendante des \u00E9tats ant\u00E9rieurs (le syst\u00E8me n'a pas de \u00AB m\u00E9moire \u00BB). Les processus de Markov portent le nom de leur inventeur, Andre\u00EF Markov."@fr . . . . . . . . . . "Cadena de M\u00E0rkov"@ca . . . . . . . . . . "229795"^^ . . "190692413"^^ . . . . . . . . . . . . . . . . . "Cha\u00EEne de Markov"@fr . . . . . . . . . . . . . "Cadeias de Markov"@pt . "Markov kate"@eu . . . . . . . . . . . . . . . . . . . . . . . . . . . . "Markovkedja"@sv . . . . . . . . . . . . . "Markov et la Belle au bois dormant"@fr . . . . . .