Markowa łańcuchy
w teorii prawdopodobieństwa: procesy stochastyczne, gdzie X(t), dla którego znajomość wartości realizacji w danej chwili t pozwala wyznaczyć probabilistyczne związki dla tej realizacji w "przyszłych" chwilach, zaś informacje dodatkowe o wartościach tej realizacji, wcześniejszych niż t, nie dają żadnych informacji dodatkowych o "przyszłości".
MARKOWSKIE PROCESY, MARKOWA ŁAŃCUCHY, MARKOW