cadena de Markov
cadena de Markov
- ca cadena de Markov, n f
- es cadena de Markov
- en Markov chain
Telemàtica
Definition
Procés estocàstic amb espai d'estats discret que compleix la condició que l'estat actual resumeix tota la història passada del procés.