Cap´ıtulo 3: 
Cadenas de Markov. 
Una propiedad de especial importancia que poseen los ya estudiados caminos aleatorios 
y procesos de ramificaci´on, es que sus valores en el n−´esimo paso s´olo dependen de 
los valores en el (n − 1)−´esimo paso, y no de los anteriores. Esta propiedad conocida 
como propiedad markoviana es de gran importancia en el estudio de estos procesos, y 
en el estudio general de la teor´ıa de procesos estoc´asticos, y por ello prestamos especial 
dedicaci´on en este cap´ıtulo. A lo largo del cap´ıtulo se supondr´a que trabajamos con 
procesos de par´ametro discreto, que toman valores discretos en un conjunto numerable. 
3.1. Cadenas de Markov 
Definici´on 3.1 Un proceso X = {Xn : n ≥ 0}, es una cadena de Markov si satisface 
la siguiente condici´on, llamada condici´on de Markov: 
P(Xn = xn|X0 = x0,X1 = x1, . . . ,Xn−1 = xn−1) = P(Xn = xn|Xn−1 = xn−1) 
∀n ≥ 1 y ∀x0, x1, . . . , xn−1, xn ∈ S. 
Observaci´on: Intuitivamente, se interpreta esta ecuaci´on como que, dado el “presente” 
del proceso, el “futuro” es independiente del “pasado”. Es decir, una cadena de Markov 
es una sucesi´on de v.a. que “ven el pasado a trav´es del ´ultimo suceso”. 
Nota 3.1 La propiedad markoviana es equivalente a cualquiera de las siguientespropie-dades: 
1. P(Xn = xn|Xn1 = xn1 ,Xn2 = xn2 , . . . ,Xnk = xnk ) = P(Xn = xn|Xnk = xnk) 
∀n ≥ 0, ∀k; 0 ≤ n1 ≤ n2 ≤ . . . ≤ nk ≤ n; xn1 , . . . , xnk , xn ∈ S. 
2. P(Xn+m = xn+m |X0 = x0, . . . ,Xn = xn) = P(Xn+m = xn+m |Xn = xn) 
∀n ≥ 0, m ≥ 1; x0, . . . , xn, xn+m ∈ S. 
Es decir, el valor en el instante n−´esimo depende solamente de la ´ultima observaci´on, 
que no tiene porque ser la del instante (n − 1)−´esimo. 
41
Nota 3.2 La evoluci´on de una cadena de Markov viene descrita por sus “probabilidades 
de transici´on”, pn ij = P(Xn+1 = j |Xn = i), que en un principio dependen de n, i y j. 
Restringiremos nuestro estudio al caso de que no dependa de n , y s´olo sean relevantes i 
y j. 
No obstante, se˜nalar que cuando las probabilidades de transici´on dependan de la etapa 
n, se dir´a que la cadena de Markov es no homog´enea. 
Definici´on 3.2 Diremos que una cadena de Markov X es homog´enea si 
P(Xn+1 = j |Xn = i) = P(X1 = j |X0 = i) ∀n, 
es decir, la probabilidad de transici´on no depende de la etapa n. 
Nota 3.3 A partir de ahora consideraremos que todas las cadenas de Markov que tratemos 
son homog´eneas, a no ser que se diga expl´ıcitamente lo contrario. 
Definici´on 3.3 Dada una cadena de Markov X , definimos su matriz de transici´on, 
P, como la matriz de las probabilidades de transici´on de dimensi´on |S| × |S|, Esto 
es: 
P = (pij)i,j2S donde pij = P(X1 = j |X0 = i). 
Ejemplo: (El clima en la tierra de Oz) 
Seg´un el cuento, en la tierra de Oz nunca hay dos d´ıas seguidos con buen tiempo. A 
un d´ıa soleado siempre le sigue (con igual probabilidad) un d´ıa de lluvia o nieve. Por otra 
parte, si un d´ıa tenemos mal tiempo hay 2 posibilidades, que el tiempo sea el mismo al d´ıa 
siguiente o que cambie. De este modo, si un d´ıa nieva (o llueve) al d´ıa siguiente nevar´a (o 
llover´a) con probabilidad 1 
2 ; pero si cambia el tiempo s´olo la mitad de las veces ser´a un 
d´ıa soleado. 
Resoluci´on: 
Sea Xn ≡ Tiempo en la tierra de Oz el d´ıa n-´esimo. 
(Xn) es una cadena de Markov, ya que el tiempo en el d´ıa n-´esimo s´olo 
depender´a del tiempo que haga el d´ıa anterior. 
Para estudiar este problema, en primer lugar calculamos las probabilidades de tran-sici 
´on; es decir, las probabilidades de que teniendo cierto tiempo un d´ıa determinado al 
d´ıa siguiente el tiempo cambie. Para ello, notaremos por s si el d´ıa est´a soleado, con l si 
llueve y con n si nieva. 
42
pss = 0 de un d´ıa soleado a un d´ıa soleado 
psl = 1/2 de un d´ıa soleado a un d´ıa lluvioso 
psn = 1/2 de un d´ıa soleado a un d´ıa con nieve 
pll = 1/2 de un d´ıa lluvioso a un d´ıa lluvioso 
pls = 1/4 de un d´ıa lluvioso a un d´ıa soleado 
pln = 1/4 de un d´ıa lluvioso a un d´ıa con nieve 
pnn = 1/2 de un d´ıa con nieve a un d´ıa con nieve 
pnl = 1/4 de un d´ıa con nieve a un d´ıa lluvioso 
pns = 1/4 de un d´ıa con nieve a un d´ıa soleado 
Ordenamos todos estos datos en la siguiente tabla: 
s l n 
s 0 1/2 1/2 
l 1/4 1/2 1/4 
n 1/4 1/4 1/2 
donde las filas indican el tiempo en un d´ıa determinado, las columnas el tiempo que 
hace al d´ıa siguiente y las entradas son las probabilidades de cambio o transici´on. 
A partir de aqu´ı obtenemos la matriz de transici´on: 
P = 
 
 
0 1/2 1/2 
1/4 1/2 1/4 
1/4 1/4 1/2 
 
 
Ejemplo: Sea el proceso estoc´astico X = {Xn : n ≥ 0}, definido por: 
P(Xn = j |Xn−1 = i) = 
 
 
p si j = i + 1 
q si j = i 
0 en casao contrario 
donde q = 1 − p. 
Tenemos que, 
P(Xn = j |Xn−1 = i,Xn−2 = xn−2, . . . ,X0 = x0) = P(Xn = j |Xn−1 = i) 
Luego verifica la condici´on de Markov. 
Veamos ahora la matriz de transici´on. Dado que S = {0, 1, 2, . . .}, la matriz de transi-ci 
´on va a ser de dimensi´on infinita: 
43
P = 
 
 
q p 0 0 · · · 0 · · · 
0 q p 0 · · · 0 · · · 0 0 q p · · · 0 · · · ... 
... 
... 
. . . 
. . . 
... 
... 
0 0 0 0 q p · · · 
0 0 0 0 0 q · · · ... 
... 
... 
... 
... 
... 
. . . 
 
 
Proposici´on 3.1 La matriz de transici´on de una cadena de Markov P es una matriz 
estoc´astica, es decir, verifica: 
Cada elemento de P es no negativo, 
pij = P(Xn+1 = j |Xn = i) ≥ 0; ∀i, j ∈ S. 
Cada fila de P suma 1, 
X 
j2S 
pij = 
X 
j2S 
P(X1 = j |X0 = i) = 1 
Estudiaremos las cadenas de Markov a “corto plazo” y a “largo plazo”. Como ya 
hemos visto, la matriz de transici´on nos permite el estudio a “corto plazo”, describiremos 
la evoluci´on a “largo plazo” como sigue: 
Definici´on 3.4 La matriz de transici´on del n-´esimo paso, Pn = (pij(n)), es la 
matriz de las probabilidades de transici´on en el n−´esimo paso desde el origen, 
pij(n) = P(Xn = j |X0 = i) 
Es decir, es la probabilidad de partiendo de i llegar a j en n pasos. 
Nota 3.4 Trivialmente P1 = P. 
En el siguiente teorema, mostraremos la relaci´on que existe entre el desarrollo a “largo 
plazo” y el desarrollo a “corto plazo”, y veremos como Xn depende de la variable inicial 
X0. 
Teorema 3.1 (Ecuaciones de Chapman-Kolmogorov) 
pij(m + n) = 
X 
k2S 
pik(m)pkj(n) 
44
Demostraci´on: 
pi,j(m + n) = P(Xn+m = j |X0 = i) 
prob. total 
= 
= 
X 
k2S 
P(A ∩ B|C) = P(A|B ∩ C)P(B|C) 
| {z } 
P(Xn+m = j,Xm = k |X0 = i) 
↓= 
= 
X 
k2S 
P(Xn+m = j |Xm = k,X0 = i)P(Xm = k|X0 = i) cond. Markov = 
= 
X 
k2S 
P(Xn+m = j |Xm = k)P(Xm = k|X0 = i) = 
= 
X 
k2S 
pik(m)pkj(n) 
Nota 3.5 De aqu´ı se deduce que Pm+n = PmPn y, por lo tanto, que Pn = Pn. 
Estudiaremos ahora la funci´on de probabilidad de la variable aleatoria Xn, notaremos 
xni 
= P(Xn = i) ≡ Probabilidad de que la cadena en la etapa n est´e en el estado i. 
xn = (xn1 
, . . . , xn 
|S|). 
Veamos la relaci´on que hay entre xni 
y la matriz de transici´on. 
Lema 3.1 xm+n = xmPn y, por lo tanto, xn = x0Pn. 
Demostraci´on: 
xm+n 
j = P(Xm+n = j) P.T. = 
X 
i2S 
P(Xm+n = j,Xm = i) = 
= 
X 
i2S 
P(Xm+n = j |Xm = i)P(Xm = i) = 
X 
i2S 
xm 
i pij(n) = (xmPn)j = (xmPn)j . 
Observaci´on: La evoluci´on aleatoria de una cadena de Markov queda completamente 
determinada por su matriz de transici´on P y su distribuci´on de densidad inicial x0. 
Por lo tanto, el estudio de las cadenas de Markov es reducible al estudio algebraico de 
las propiedades de las matrices de transici´on. 
Ejemplo: Camino Aleatorio. 
S = {0,±1,±2, . . .}. Part´ıcula que se mueve hacia arriba o hacia abajo. 
pij = 
 
 
p si j = i + 1 
q si j = i − 1 
0 e.c.c. 
P = (pij) 
45
• Calcular la matriz de transici´on del n−´esimo paso. 
Podr´ıamos intentar calcular Pn partiendo de la matriz anterior por sucesivas multipli-caciones, 
pero en ´este caso podemos proceder: 
Si hubiese u pasos hacia arriba, tenemos 
pij(n) = 
 
n 
u 
 
puqn−u 
como j − i = u − (n − u) ⇒ j − i = 2u − n ⇒ u = 
j − i + n 
2 ∈ Z. Por tanto: 
pij(n) = 
 
 
 
n 
n+j−i 
2 
 
p 
n+j−i 
2 q 
n−j+i 
2 si n + j − i par 
0 en caso contrario 
Ejemplo: N´umero de caras en sucesivos lanzamientos de una moneda. 
Sea la cadena Y = {Yn : n ≥ 0}, con Y0 = 0, que representa el n´umero de caras en n 
lanzamientos. 
P(Yn+1 = s + 1 |Yn = s) = p 
P(Yn+1 = s |Yn = s) = q = 1 − p 
) 
∀n ≥ 0; 0  p  1. 
• Calcular pij(m): 
pij(m) = P(Yn+m = j |Yn = i) = 
 
m 
j − i 
 
pj−iqm−j+i, j ≥ i. 
Luego que en m lanzamientos salgan j − i caras ∼ Bi(m, p). 
Ejemplo: Si perturbamos el proceso anterior y definimos, 
X = {Xn : n ≥ 0} 
donde Xn = Yn(mod. 10). 
En este caso, tenemos solo 10 estados, S = {0, 1, . . . , 9}. Luego la matriz de transici´on es 
de orden 10 × 10: 
P = 
 
 
q p 0 0 · · · 0 
0 q p 0 · · · 0 
0 0 q p · · · 0 
... 
... 
... 
. . . 
. . . 
... 
0 0 0 · · · q p 
p 0 0 · · · 0 q 
 
 
46
Ejemplo: 
El nivel de negocio de la Bolsa puede considerarse cada d´ıa alto (A) o bajo (B). Para un 
periodo de 5301 d´ıas se dispone de la secuencia BAABBA..., y que nos permite representar 
la alternancia mediante el cuadro adjunto: 
B A 
B 3077 543 
A 588 1092 
¿Podr´ıa indicar alguna relaci´on entre la duraci´on de ciclos de d´ıas de nivel alto con los 
d´ıas de nivel bajo a tenor de dichos datos? 
Debemos normalizar la matriz por filas: 
B A 
B 0.85 0.15 
A 0.35 0.65 
= P 
Supongamos que la bolsa est´a regida por dicho matriz de probabilidad. 
Si la bolsa est´a baja ⇒ la probabilidad de que al d´ıa siguiente est´e baja es 0.85. 
Si elevamos la matriz al cuadrado, P2, significa el pasar de A a B o de B a A en dos d´ıas. 
Si vamos calculando potencias de P, veamos por ejemplo P8, 
P8 = 
 
 
359 
512 
153 
512 
357 
512 
155 
512 
 
 
observamos que las dos filas se van pareciendo cada vez m´as, el sistema se va estabilizando. 
Nosotros estamos interesados en lo que ocurre en el l´ımite, es decir, 
l´ım 
n!1 
Pn = 
 
0.7 0.3 
0.7 0.3 
# 
(se obtiene resolviendo πP = π). 
Esto va a representar la fracci´on de tiempo que la bolsa est´a en B y la fracci´on de tiempo 
que la bolsa est´a en A. Entonces nos dice que la bolsa est´a m´as tiempo en baja que en 
alta. 
Nota 3.6 πi ≡ probabilidad estacionaria de estar en el estado i. 
Siendo μi = 
1 
πi ≡ frecuencia que tarda en ser visitado el estado i. 
47
As´ı, 
μ1 = 1.4 → la bolsa tarda en volver a baja 1.4 d´ıas. 
μ2 = 3.3 → la bolsa tarda en volver a alta 3.3 d´ıas. 
) 
⇒ 
⇒ tarda en volver a alta m´as del doble que en volver a baja. 
Nota 3.7 Nos interesa, para estos modelos, ver si se ajusta a una cadena de Markov y, 
en tal caso, hallar la matriz de transici´on y su comportamiento l´ımite. 
Ejemplo: Un taller de reparaci´on se ocupa de dos tipos de motores. La reparaci´on de un 
motor de tipo M1 requiere dos d´ıas y la del tipo M2 s´olo un d´ıa. La probabilidad de aver´ıa 
para los motores de tipo uno es de 1/3 mientras que es de 1/2 para los de tipo dos. 
Los trabajos no admitidos en el taller se encargan al exterior. 
Sabiendo que si una jornada de reparaci´on ha sido asignada a un motor de tipo uno, se 
rechaza todo trabajo que pueda presentarse al d´ıa siguiente; en otro caso se admitir´a cual-quier 
tarea si no se presenta m´as que una. 
Decidir que pol´ıtica es mejor: dar prioridad a los motores de tipo uno (dos) cuando se 
presenten para su reparaci´on motores de ambos tipos. 
Podemos tener el taller sin trabajo, con un motor de tipo 1 en un d´ıa,con un motor de 
tipo 1 en dos d´ıas o con un motor de tipo 2. Al d´ıa siguiente el taller puede estar en tres 
estados distintos, de los cuatro posibles . Intentemos determinar la matriz de transici´on 
dando prioridad al motor de tipo 1, M1: 
0 1 2 3 
NO TRABAJO 
ESTADO: 0 
 
1 − 1 
3 
  
1 − 1 
2 
 
1 
3 0 1 
2 
 
1 − 1 
3 
 
M1(1) 
ESTADO: 1 
0 0 1 0 
M1(2) 
ESTADO: 2 
 
1 − 1 
3 
  
1 − 1 
2 
 
1 
3 0 1 
2 
 
1 − 1 
3 
 
M2 
ESTADO: 3 
 
1 − 1 
3 
  
1 − 1 
2 
 
1 
3 0 1 
2 
 
1 − 1 
3 
 
 
 1/3 1/3 0 1/3 
0 0 1 0 
1/3 1/3 0 1/3 
1/3 1/3 0 1/3 
 
 
Dando prioridad al motor de tipo 2, M2, tenemos: 
48
 
 
1/3 1/6 0 1/2 
0 0 1 0 
1/3 1/6 0 1/2 
1/3 1/6 0 1/2 
 
 
El taller tiene dos comportamientos seg´un elijamos la pol´ıtica de dar prioridad a M1 ´o a 
M2, que est´an regidos por las dos matrices de transici´on. 
Si calculamos la matriz l´ımite, haciendo π = πP tenemos: 
π = 
 
1 
4 
, 
1 
4 
, 
1 
4 
, 
1 
4 
 
para el primer caso. 
π = 
 
2 
7 
, 
1 
7 
, 
1 
7 
, 
3 
7 
 
para el segundo caso. 
As´ı, dado que no queremos tener mucho tiempo el taller parado, nos interesa la pol´ıtica 
del tipo 1, pues a largo plazo tiene mas ocupado el taller, 
 
2 
7 
 
1 
4 
 
. 
3.2. Clasificaci´on de estados. 
Podemos pensar en el desarrollo de una cadena como el movimiento de un part´ıcula 
que salta entre los estados de S en cada momento. Nos interesaremos por el n´umero 
(posiblemente infinito) de instantes que tarda la part´ıcula en regresar a su punto de 
origen. Sin embargo, ¿ha de volver la part´ıcula a su punto inicial? Con esta pregunta en 
mente realizamos la siguiente definici´on. 
Definici´on 3.5 El estado i es persistente ( o recurrente) si: 
P(Xn = i para alg´un n ≥ 1 |X0 = i) = 1 
es decir, si la probabilidad de que la part´ıcula regrese al estado i, habiendo empezado en 
i, es 1. Si el estado i no es persistente lo llamaremos al estado transitorio, es decir, si 
esta probabilidad es menor que la unidad. 
Tambi´en estamos interesados en el n´umero de pasos hasta la primera visita al estado 
j partiendo del estado i. La probabilidad de que partiendo del estado i lleguemos por 
primera vez al estado j en n pasos la representamos por: 
( 
fij(n) = P(X16= j,X26= j, . . . ,Xn−16= j,Xn = j |X0 = i) 
fij(0) = 0 
49
Notaremos la probabilidad de que partiendo del estado i alcancemos alguna vez el 
estado j ser´a: 
fij = 
X 
n1 
fij(n) 
Claro es que el estado i es persistente si y s´olo si fii = 1. 
Ahora buscamos un criterio para determinar si un estado es persistente o no, bas´ando-nos 
en las probabilidades de transici´on. Como ya hicimos en las caminos aleatorios, defi-nimos 
las siguientes funciones generatrices: 
Pij(s) = 
X 
n0 
pij(n)sn 
Fij(s) = 
X 
n1 
fij(n)sn 
Con la convenci´on de que pij(0) = δij (delta de Kronecker) y fij(0) = 0 ∀i, j ∈ S. 
Claramente se tiene que 
fij = Fij(1). 
A continuaci´on, veremos que se verifican relaciones an´alogas al caso de los caminos 
aleatorios entre las dos funciones generatrices Fij y Pij . 
Teorema 3.2 Se verifican las siguientes relaciones: 
1. Pii(s) = 1 + Pii(s)Fii(s). 
2. Pij(s) = Pjj(s)Fij(s) si i6= j. 
Demostraci´on: 
Fijamos i, j ∈ S, sea Am = {Xm = j} y Bm el suceso de que la primera visita a j 
ocurra en el instante m, es decir, Bm = {Xr6= j para 1 ≤ r  m, Xm = j}. Los Bm son 
disjuntos luego tenemos: 
P(Am |X0 = i) P.T. = 
Xm 
r=1 
P(Am ∩ Br |X0 = i) 
Utilizando la propiedad de Markov y la definici´on de probabilidad condicionada tenemos: 
P(Am ∩ Br |X0 = i) = P(Am |Br ∩ X0 = i)P(Br |X0 = i) = 
= P(Am |Xr = j)P(Br |X0 = i) = pjj(m − r)fij(r) 
As´ı pues: 
pij(m) = P(Am |X0 = i) = 
Xm 
r=1 
pjj(m − r)fij(r), ∀m ≥ 1. 
50
Ahora basta multiplicar por sm y sumar en m aplicando las propiedades sobre convoluci´on 
para llegar a lo que quer´ıamos. As´ı, 
X1 
m=1 
pij(m)sm = 
X1 
m=1 
Xm 
r=1 
pjj(m − r)fij(r)sm = 
= 
X1 
r=1 
X1 
m=r 
pjj(m − r)sm−rfij(r)sr = 
= 
X1 
m=r 
pjj(m − r)sm−r 
X1 
r=1 
fij(r)sr. 
Luego, 
Pij(s) − δij = Pjj(s)Fij(s). 
Veamos ahora como caracterizamos los estados a partir de las probabilidades de tran-sici 
´on. 
Corolario 3.1 Los estados de una cadena de Markov se clasifican en: 
1. Un estado j es persistente ⇐⇒ 
X1 
n=0 
pjj(n) = ∞. Adem´as, en este caso: 
X1 
n=0 
pij(n) = ∞, ∀i tal que fij  0. 
2. Un estado j es transitorio ⇐⇒ 
X1 
n=0 
pjj(n)  ∞. Adem´as, 
X1 
n=0 
pij(n)  ∞, ∀i. 
Demostraci´on: 
1. Sea I{Xn=i} la variable indicador de {Xn = i}. 
I{Xn=i} = 
 
1 si Xn = i 
0 si Xn6= i 
 
I{Xn=i} ≈ Be(p) ; con p = P[Xn = i|X0 = i] 
51
Sea Ni el n´umero de veces que se visita el estado i (dado X0 = i) 
X1 
E[Ni] = E[ 
n=0 
I{Xn=i}|X0 = i] = 
X1 
n=0 
E[I{Xn=i}|X0 = i] = 
X1 
n=0 
P[Xn = i|X0 = i] = 
X1 
n=0 
pii(n) = ∞ 
() 
⇐⇒ i es recurrente. 
Ya s´olo quedar´ıa probar el paso (∗): 
P[Ni = n] = fn−1 
ii (1 − fii) ; n = 1, 2, ... 
Ni ≈ Ge(p) ; p = 1 − fii. 
N(i) ≈ Ge(p) =⇒ E[Ni] = 
1 
p 
=⇒ E[Ni] = 
1 
1 − fii 
E[Ni] = ∞ ⇐⇒ fii = 0 ⇐⇒ i es recurrente. 
Del apartado 1. del teorema 3.2 tenemos que Pjj(s) = 
1 
1 − Fjj(s) 
, ∀|s|  1. Entonces, 
si tomamos l´ımite tenemos 
l´ım 
s!1 
Pjj(s) = ∞ ⇔ l´ım 
s!1 
Fjj(s) = 1 ⇔ fjj = 1 
es decir, 
Pjj(1) = 
X1 
n=0 
pjj(n) = ∞ ⇔ j es persistente. 
Cuando i6= j se tiene 
Pij(s) = Fij(s)Pjj(s) s!1 =⇒ 
X1 
n=0 
pij(n) = |f{izj} 
∨0 
X1 
n=0 
pjj(n) = ∞. 
Para b,razonamos por exclusi´on, si la suma es infinita ⇒ el estado es persistente. Por 
tanto, si la suma es finita ⇒ el estado ser´a transitorio. 
Corolario 3.2 Si j es transitorio ⇒ pij(n) n!1 −→ 0, ∀i. 
Demostraci´on: 
Basta aplicar el corolario anterior: 
j es transitorio ⇔ 
X1 
n=0 
pjj(n)  ∞, ∀i ⇒ pij(n) n!1 −→ 0, ∀i. 
52
Observaci´on: As´ı pues cada estado es ´o persistente ´o transitorio. Es intuitivamente claro 
que el n´umero N(i) de veces que la cadena visita el estado i satisface: 
P(N(i) = ∞) = 
 
1 si i es persistente 
0 si i es transitorio 
Ya que tras cada visita a i el regreso es cierto si y solo si fii = 1, es decir, si i es persistente. 
Supongamos {Xn : n ≥ 0} una cadena de Markov tal que X0 = i. Otra forma de 
clasificar los estados es a trav´es de la variable que nos indica el n´umero de instantes antes 
de la primera visita al estado i : 
Ti = m´ın{n ≥ 1 : Xn = i} 
Tomamos el convenio de que Ti = ∞ cuando tal visita nunca ocurra. 
Tenemos que P(Ti = ∞|X0 = i)  0 si y solo si i es transitorio, y en este caso, 
E[Ti |X0 = i] = ∞. 
Definici´on 3.6 Definimos el tiempo medio de recurrencia μi del estado i como: 
μi = E[Ti |X0 = i] = 
X1 
n=0 
nfii(n) 
es decir, como el n´umero de instantes esperado para regresar al estado i por primera 
vez. 
Nota 3.8 Si i es transitorio =⇒ μi = ∞. 
Nota 3.9 Puede darse el caso de que siendo i persistente el tiempo medio de recurrencia, 
μi, sea infinito; siendo ´este el caso en el que aunque el regreso a i es cierto se necesita un 
tiempo infinito. As´ı pues, realizamos la siguiente distinci´on entre los estados persistentes. 
Definici´on 3.7 Sea i un estado persistente, entonces: 
( 
i es un estado persistente nulo si μi = ∞ 
i es un estado persistente no nulo si μi  ∞ 
El siguiente teorema nos da una caracterizaci´on para estados persistentes nulos. 
Teorema 3.3 Un estado i es persistente nulo ⇔ pii(n) n!1 −→ 0. Adem´as, en este caso, 
pji(n) n!1 −→ 0, ∀j. 
53
Nota 3.10 Destacar que al ser un estado j persistente se tiene que 
X1 
n=0 
pij(n) = ∞, y 
as´ı para ser persistente nulo tiene que darse que pij(n) n!1 −→ 0, ∀i. Tambi´en destacar 
que la condici´on pij(n) n!1 −→ 0 es necesaria para que un estado sea transitorio, pero no 
suficiente como se mostr´o en el corolario 3.2. 
Ejemplo: Recorrido Aleatorio. 
Supongamos un recorrido aleatorio, y sean 
p0(n) ≡ probabilidad de volver al estado 0 tras n pasos. 
f0(n) ≡ probabilidad de 1a visita al estado 0 tras n pasos. 
• Calcular P0(s) y F0(s). 
Como P0(s) = 1 − F0(s)P0(s), basta calcular una de ellas. 
p0(n) = 
 
 
 
n 
n 
2 
 
p 
n 
2 q 
n 
2 si n par 
0 si n impar 
Con p0(n) podemos calcular la f.g.p.: 
P0(s) = 
X1 
n=0 
p0(n)sn = 
X1 
k=0 
p0(2k)s2k = 
X1 
k=0 
 
2k 
k 
 
pkqks2k = (1 − 4pqs2)−1 
2 . 
Por tanto, 
P0(s) = (1 − 4pqs2)−1 
2 
P0(s) = 1 − F0(s)P0(s) 
) 
=⇒ F0(s) = 1 − (1 − 4pqs2)−1 
2 
En base a ello podemos clasificar los estados de la cadena: 
Si p = 
1 
2 ⇒ 
X1 
n=0 
p0(n) = P0(1) = 
 
1 − 4· 
1 
2 · 
1 
2 ·1 
−1 
2 
= ∞. 
Luego el estado 0 es persistente ( por conexi´on, todos los estados son persistentes). 
Para ver si son persistentes nulos o no nulos, calculamos μ0: 
μ0 = 
X1 
n=0 
′ 
0(1) = . . . = 
nf0(n) = F 
s 
√1 − s2
Cadenas de markov
Cadenas de markov
Cadenas de markov
s=1 
= ∞ 
Luego el estado 0 es persistente nulo. Aunque la probabilidad de volver al estado 0 
es 1 (persistente), el no medio de pasos para volver es ∞. 
54
Si p6= 
1 
2 ⇒ P0(1) = (1 − 4pq1)−1 
2  ∞ ⇒ el estado 0 es transitorio. 
( todos los estados son transitorios). 
Finalmente, introducimos una definici´on que nos permite estudiar sobre los periodos 
de tiempo en los cuales el regreso al punto de partida es posible. 
Definici´on 3.8 Definimos el periodo d(i) de un estado i ∈ S como: 
d(i) = mcd{n : pii(n)  0} 
es decir, como el mayor com´un divisor de los lapsos de tiempo tomados en regresar a i 
cuando el regreso a i es posible. Diremos que un estado i es peri´odico si d(i)  1 y que 
un estado i es aperi´odico si d(i) = 1. 
Las cadenas de mayor aplicaci´on son aquellas en las que los estados tienen mejor 
comportamiento, por ello damos la siguiente definici´on 
Definici´on 3.9 Diremos que un estado i es erg´odico si es persistente no nulo y ape-ri 
´odico. Es decir, si P(Xn = i para alg´un n ≥ 1 |X0 = i) = 1, μi  ∞ (el tiempo esperado 
de regreso es finito) y mcd{n : pii(n)  0} = 1. 
3.3. Clasificaci´on de las cadenas. 
Comenzaremos viendo la forma en la que los estados de una cadena de Markov se 
relacionan entre s´ı. 
Definici´on 3.10 Sean i, j ∈ S. 
Diremos que i comunica con j(se denota i → j), si la cadena visita el estado j 
con probabilidad positiva partiendo del estado i. Es decir, si 
∃n ≥ 0 tal que pij(n)  0. 
Diremos que i y j est´an intercomunicados(se denota i ↔ j), si i → j y j → i. 
Es decir, si 
∃n,m ≥ 0 tales que pij(n)  0 y pji(m)  0. 
Nota 3.11 La relaci´on ↔ es de equivalencia y, por tanto, define una partici´on en el 
conjunto de estados S en clases de equivalencia. Dentro de cada clase de equivalencia 
todos los estados son del mismo tipo como veremos en el siguiente teorema. 
Teorema 3.4 Supongamos que i ↔ j, entonces: 
1. d(i) = d(j), es decir, i y j tienen el mismo periodo. 
55
2. i es transitorio ⇔ j es transitorio. 
3. i es persistente nulo ⇔ j es persistente nulo. 
Demostraci´on: 
1. Si i ↔ j ⇒ ∃m, n tales que pij(m)  0 y pji(n)  0. 
Por el teorema de Chapman-Kolmogorov, tenemos: 
pii(m + n) ≥ pij(m)pji(n)  0 ⇒ m + n es m´ultiplo de d(i). (∗) 
pjj(m + n) ≥ pji(n)pij(m)  0 ⇒ m + n es m´ultiplo de d(j). (∗∗) 
pii(m + d(j) + n) ≥ pij(m)pjj(d(j))pji(n)  0 ⇒ m + d(j) + n es m´ultiplo de d(i). (⋆) 
pjj(m + d(i) + n) ≥ pij(n)pjj(d(i))pji(m)  0 ⇒ m + d(i) + n es m´ultiplo de d(j). (⋆⋆) 
De aqu´ı, 
(∗) y (⋆) ⇒ d(j) es m´ultiplo de d(i) 
(∗∗) y (⋆⋆) ⇒ d(i) es m´ultiplo de d(j) 
) 
⇒ d(i) = d(j). 
2. 
Supongamos i transitorio ⇔ 
X 
n 
pij(n)  ∞ ⇒ ∀j, 
X 
n 
pij(n)  ∞. 
Supongamos ahora que i es transitorio y que hay otro estado j que comunica con ´el 
que no lo es. As´ı, i transitorio, j no transitorio, i ↔ j. Entonces, 
∃m, n tales que pij(m)  0 y pji(n)  0. 
Por el teorema de Chapman-Kolmogorov, tenemos: 
pii(m + r + n) ≥ pij(m)pjj(r)pji(n) = αpjj(r), ∀r, 
donde α = pij(m)pji(n)  0. 
Sumando en r esta expresi´on, 
∞  
X 
r 
pii(m + r + n) ≥ α 
X 
r 
pjj(r) 0 =⇒ 
X 
r 
pjj(r)  ∞ ⇒ j es transitorio. 
3. 
Supongamos i persistente no nulo ⇔ pii(n) n!1 −→ 0. 
An´alogamente a la demostraci´on de 2., pero usando la caracterizaci´on anterior, se llega 
a que si i es persistente nulo ⇒ j tambi´en lo es, pues 
pii(m + r + n) n!1 −→ 0, y pii(m + r + n) ≥ αpjj(r) 
56
con α = pij(m)pji(n)  0. Entonces, 
pjj(r) r!1 −→ 0 ⇒ j es persistente nulo. 
Nota 3.12 Por exclusi´on, si i es persistente no nulo, como j no puede ser ni transitorio 
ni persistente nulo ⇒ j ser´a persistente no nulo. 
A continuaci´on definimos distintos tipos de clases de estados: 
Definici´on 3.11 Sea C ⊆ S un conjunto de estados, diremos que C es: 
i. cerrado si ∀i ∈ C, j /∈ C, pij = 0. 
ii. irreducible si ∀i, j ∈ C, i ↔ j. 
Observaci´on: Una vez que la cadena toma un valor en una clase cerrada de estados C 
entonces nunca la dejar´a en el futuro. Si un conjunto de estados cerrado est´a formado por 
un ´unico estado, a este estado se le llamar´a absorbente. 
Es claro que las clases de equivalencia de ↔ son irreducibles. Diremos que C tiene 
una propiedad si todos los estados de C tienen dicha propiedad. Si todo el conjunto de 
estados S es irreducible entonces diremos que la cadena es irreducible. 
Podemos ya formular el siguiente importante teorema. 
Teorema 3.5 (Teorema de descomposici´on de las Cadenas de Markov) El espa-cio 
de estados S de una cadena de Markov X, tiene la siguiente partici´on ´unica: 
S = T ∪ C1 ∪ C2 ∪ · · · 
donde T es un conjunto de estados transitorios, y Ci son clases cerradas e irreducibles de 
estados persistentes. 
Nota 3.13 El teorema de descomposici´on nos muestra las posibilidades que pueden darse 
en una cadena de Markov. Esto es, si X0 ∈ Cr, entonces la cadena nunca abandonar´a la 
clase Cr y entonces, podemos considerar el espacio de estados S = Cr. Por otra parte, 
si X0 ∈ T entonces, o la cadena permanece por siempre en T o se mueve a una clase 
Ck y permanece ah´ı por siempre. As´ı, o la cadena siempre toma valores en el conjun-to 
de estados transitorios o acaba en un conjunto cerrado persistente de estados donde 
permanecer´a por siempre. Veamos ahora que en el caso en el que S sea finito la primera 
situaci´on no puede darse. 
Nota 3.14 Eventualmente T puede ser vac´ıo. 
Nota 3.15 Si |S|  +∞ ⇒ las cadenas son m´as sencillas. 
57
Teorema 3.6 Si S es finito, todos los estados no pueden ser transitorios, siendo todos 
los estados persistentes no nulos. 
Demostraci´on: 
Por reducci´on al absurdo, supongamos que todos los estados son transitorios. Entonces 
tendr´ıamos que 
∀i, 
X 
j2S 
pij(n) = 1 
Adem´as, por el corolario 3.2, tenemos que 
pij(n) n!1 −→ 0, ∀i, j ∈ S. 
Luego: 
1 = l´ım 
n!1 
1 = l´ım 
n!1 
X 
j2S 
pij(n) 
fta. 
= 
X 
j2S 
l´ım 
n!1 
pij(n) = 
X 
j2S 
0 = 0 
Llegar´ıamos a la misma contradicci´on si supusi´esemos que existe un estado persistente 
nulo, ya que en este caso tambi´en se tiene que pij(n) n!1 −→ 0. 
Ejemplo: Sea S = {1, 2, 3, 4, 5, 6}. 
P = 
 
 
1/2 1/2 0 0 0 0 
3/4 1/4 0 0 0 0 
1/4 1/4 1/4 1/4 0 0 
1/4 0 1/4 1/4 0 1/4 
0 0 0 0 1/2 1/2 
0 0 0 0 1/2 1/2 
 
 
Clasificaci´on de los estados: 
El estado 3 es transitorio, ya que para ser persistente tendr´ıa que tener probabilidad 
1 de volver a 3 saliendo de 3 y si salimos al estado 1 ya no volvemos a 3. 
El estado 4 tambi´en es transitorio. Luego, 
T = {3, 4} 
La clase {1, 2} es irreducible , al igual que {5, 6} . 
Con la matriz de transici´on es suficiente para conocer una cadena. 
Utilizando los teoremas anteriores, tenemos que dada una cadena de Markov sobre el 
espacio S, el conjunto de estados puede descomponerse como: 
S = T ∪ C1 ∪ C2 ∪ · · · 
58
Renombrando a los estados adecuadamente llegamos a que la matriz de transici´on se 
puede expresar como sigue: 
P = 
 
 
C1 0 · · · 0 0 
0 C2 · · · 0 0 
... 
... 
. . . 
... 
... 
0 0 · · · Cm 0 
D1 D2 · · · Dm Q 
 
 
donde Ci son las matrices correspondientes a los estados persistentes, y Di a los transi-torios. 
Ejemplo: Sea X una cadena de Markov con S = {1, 2, . . . , 10}. Sea 
P = 
 
 
1/2 0 1/2 0 0 0 0 0 0 0 
0 1/3 0 0 0 0 2/3 0 0 0 
1 0 0 0 0 0 0 0 0 0 
0 0 0 0 1 0 0 0 0 0 
0 0 0 1/3 1/3 0 0 0 1/3 0 
0 0 0 0 0 1 0 0 0 0 
0 0 0 0 0 0 1/4 0 3/4 0 
0 0 1/4 1/4 0 0 0 1/4 0 1/4 
0 1 0 0 0 0 0 0 0 0 
0 1/3 0 0 1/3 0 0 0 0 1/3 
 
 
Hacemos el siguiente grafo: 
1 3 
10 2 7 
9 
5 
4 
6 
8 
1 , 3 8 , 5 , 4 , 10 2 , 7 , 9 
y as´ı, 
59
{1, 3} 
{2, 7, 9} 
{6} 
 
 conjuntos cerrados, irreducibles, recurrentes, no nulos. 
{4, 5, 8, 10} conjunto transitorio. 
{1, 3, 2, 7, 9, 6} ninguno es transitorio o recurrente nulo. 
{6} es absorvente. 
Luego la matriz de transici´on se puede expresar del siguiente modo: 
P = 
 
 
1 0 0 0 0 0 0 0 0 0 
0 1/2 1/2 0 0 0 0 0 0 0 
0 1 0 0 0 0 0 0 0 0 
0 0 0 1/3 2/3 0 0 0 0 0 
0 0 0 0 1/4 3/4 0 0 0 0 
0 0 0 1 0 0 0 0 0 0 
0 0 0 0 0 0 0 1 0 0 
0 0 0 0 0 1/3 1/3 1/3 0 0 
0 0 1/4 0 0 0 1/4 0 1/4 1/4 
0 0 0 1/3 0 0 0 1/3 0 1/3 
 
 
Ejemplo: Sean las cadenas de Markov dadas por las siguientes matrices de transici´on. 
Identificar gr´aficamente el tipo de estado al que pertenecen cada uno de ellos. 
a) 
P1 = 
 
 
1/2 0 1/2 0 0 
0 1/4 0 3/4 0 
0 0 1/3 0 2/3 
1/4 1/2 0 1/4 0 
1/3 0 1/3 0 1/3 
 
 
Hacemos en primer lugar un grafo de los estados. A trav´es del grafo se puede identificar 
qu´e estados son recurrentes y cu´ales transitorios. 
Asignamos a un estado cualquiera los signos ±. Por ejemplo, al estado 1. 
Si se se˜nala un estado con un signo + (por ejemplo el i) se se˜nalan tambi´en con + los 
estados j que siguen al i. Por ejemplo, hemos se˜nalado 1 con +, entonces seguir´a el 
estado 3 con + y, despu´es del estado 3, el estado 5 tambi´en con +. 
Si se se˜nala un estado con signo −, se se˜nalan tambi´en con − a todos los estados 
que lo preceden. Por ejemplo, si el 1 tiene signo −, ponemos signo − tambi´en a 
los estados 4 y 5; como el 3 precede al 5 le ponemos tambi´en signo −, y como el 2 
precede al 4, le ponemos tambi´en signo −. 
60
−+ 
−+ 
−+ 
1 
2 
3 
4 
5 
− 
− 
Aquellos estados se˜nalados con el doble signo ± forman una clase de estados comuni-cados. 
En nuestro caso, forman esa clase los estados 1,3,5. 
Para ver lo que les ocurre a los estados restantes, le damos ± de partida a otro estado 
que no est´e en la clase que ya nos ha salido y repetimos los mismos pasos. En nuestro caso, 
le damos ± al estado 2 por ejemplo, obteniendo que {2, 4} forman una clase comunicada. 
−+ 
−+ 
1 
2 
3 
4 
5 
+ 
+ 
+ 
Tenemos entonces dos clases comunicadas, {1, 3, 5} y {2, 4}, ya que si cogemos otros 
estados distintos de partida para asignarles el ± nos salen las mismas clases. 
{2, 4} son estados transitorios porque cuando salen ya no vuelven. Una cadena finita 
nunca puede tener todos sus estados transitorios. 
Ahora reescribimos la matriz P1 de forma que los elementos de una misma clase est´en 
juntos. As´ı, nos queda: 
61
P1 = 
 
 
1/2 1/2 0 0 0 
0 1/3 2/3 0 0 
1/3 1/3 1/3 0 0 
0 0 0 1/4 3/4 
1/4 0 0 1/2 1/4 
 
 
b) 
P2 = 
 
 
0 0.8 0 0 0 0 0.2 
0 0.3 0 0 0 0 0.7 
0 0 0.3 0.5 0.2 0 0 
0 0 0.6 0 0.4 0 0 
0 0 0 0.4 0.6 0 0 
0.1 0.1 0.1 0.2 0.2 0.3 0 
0.4 0.1 0.1 0 0.1 0.2 0.1 
 
 
−+ 
−+ 
−+ 
−+ 
+ 
−+ 
−+ 
−+ 
1 
2 
3 
4 
6 5 
7 
+ 
+ 
− 
− 
− 
− 
{1 , 2 , 6 , 7} Transitorios 
{3 , 4 , 5} 
Reescribimos la matriz P2: 
P2 = 
 
 
0.3 0.5 0.2 0 0 0 0 
0.6 0 0.4 0 0 0 0 
0 0.4 0.6 0 0 0 0 
0 0 0 0 0.8 0 0.2 
0 0 0 0 0.3 0 0.7 
0.1 0.2 0.2 0.1 0.1 0.3 0 
0.1 0 0.1 0.4 0.1 0.2 0.1 
 
 
Ahora nos interesa saber que ocurre con la cadena {Xn} cuando n → ∞. La matriz P 
en conjunto no tiene un estado l´ımite, sino cada uno de los estados que est´an en la misma 
clase. 
62
3.4. Distribuciones estacionarias y teoremas l´ımite. 
¿C´omo se comportar´a una cadena cuando haya pasado un largo per´ıodo de tiempo? 
Definici´on 3.12 El vector π = (πj)j2S es una distribuci´on estacionaria de la cadena 
si: 
1. Es una distribuci´on de probabilidad, es decir: 
πi ≥ 0, 
X 
i2S 
πi = 1. 
2. π = πP, i.e., πj = 
X 
i2S 
πipij ∀j ∈ S. 
Observaci´on: Se dice distribuci´on estacionaria, pues si iteramos se obtiene: 
πP2 = (πP)P = πP = π ⇒ . . . ⇒ πPn = π ∀n ≥ 0. 
Luego si X0 sigue la distribuci´on dada por π, se tiene que dicha distribuci´on no ser´a mo-dificada, 
es decir, ∀n, Xn tiene la misma distribuci´on. 
A continuaci´on enunciamos un teorema importante . 
Teorema 3.7 (Teorema fundamental de las cadenas de Markov) Una cadena de 
Markov tiene una distribuci´on estacionaria π si y s´olo si todos sus estados son persistentes 
no nulos; en cuyo caso, la distribuci´on π es ´unica y viene dada por πi = μ−1 
i para cada 
i ∈ S, donde μi es el tiempo medio de recurrencia del estado i. 
Ejemplo: Sea P = 
 
1/2 1/2 
1/4 3/4 
# 
πP = π ⇒ (π1, π2) = (π1, π2) 
  
1/2 1/2 
1/4 3/4 
! 
= 
 
1 
2 
π1 + 
1 
4 
π2, 
1 
2 
π1 + 
9 
4 
π2 
 
⇒ 
⇒ 
( 
π1 = 1 
2π1 + 1 
4π2 
2π1 + 3 
4π2 ⇒ 
π2 = 1 
 
 
1 
2π1 = 1 
4π2 
1 
4π2 = 1 
2π1 
π1 + π2 = 1 
⇒ 
π1 = 1 
3 
π2 = 2 
3 
Nota 3.16 Observemos que: 
i. Si la cadena es transitoria o recurrente nula, como μj = ∞, entonces 
pij(n) n!1 −→ 0, ∀i, j ∈ S. 
63
ii. Si la cadena es persistente no nula, 
pij(n) n!1 −→ πj = μ−1 
j . 
iii. P(Xn = j) = 
X 
i 
P(X0 = i)pij(n) n!1 −→ 
1 
μj 
. 
Notese que l´ım 
n!1 
pij(n) no depende del punto inicial X0 = i. 
iv. Si X es peri´odica de periodo d, Y = {Yn = Xnd : n ≥ 0} es una cadena aperi´odica: 
pjj(nd) = P(Yn = j |Y0 = j) n!1 −→ 
d 
μj 
. 
Nota 3.17 Si X es irreducible y aperi´odica, el sistema siguiente tiene soluci´on ´unica. 
 
 
π(j) = 
X 
i2S 
π(i)pij j ∈ S 
X 
j2S 
π(j) = 1 
Adem´as, se tiene 
π(j) = l´ım 
n!1 
Pn 
ij ∀i, j ∈ S 
Una cadena de Markov no tiene porque tener distribuci´on estacionaria, para que as´ı sea 
ha de ser una cadena irreducible y todos sus estados deben ser persistentes no nulos. 
Luego para estudiar el comportamiento l´ımite de una cadena cualquiera, hay que 
considerar cada una de sus clases Ci, ya que cada una va a tener un comportamiento 
l´ımite. Tambi´en la clase de estados transitorios T va tener su comportamiento; aunque 
acabe por desaparecer, nos interesa ver en cuanto tiempo. Por tanto, es fundamental para 
el estudio del comportamiento l´ımite la separaci´on de una cadena en estados persistentes 
y transitorios, pues es en la separaci´on donde est´a el comportamiento l´ımite. Se estudia 
cada una por separado, se hace π = πCi. 
La matriz l´ımite de Pn va a coincidir en cada fila con la distribuci´on estacionaria: 
P = 
 
 
π 
π 
· · · π 
 
 
si la cadena es irreducible. 
A continuaci´on vemos resultados sobre el comportamiento asint´otico de las cadenas 
de Markov con estados peri´odicos. 
64
Lema 3.2 Sea X una cadena de Markov irreducible con estados peri´odicos recurrentes 
de per´ıodo δ. Entonces, los estados se dividen en δ clases disjuntas B1,B2, . . . ,B (clases 
c´ıclicas), tales que pij = 0, a menos que: 
i ∈ B1 y j ∈ B2 ´o i ∈ B2 y j ∈ B3 ´o . . . ´o i ∈ B y j ∈ B1. 
Teorema 3.8 Sea P la matriz de transici´on de una de cadena de Markov con estados 
peri´odicos recurrentes de periodo δ, y sean B1, . . . ,B definidas en el lema anterior. En-tonces, 
en la cadena de Markov con matriz de transici´on P = P las clases B1, . . . ,B son 
cerradas e irreducibles de estados aperi´odicos. 
Del lema anterior se deduce que si i ∈ B entonces: 
P(Xm ∈ B
|X0 = i) = Pi(Xm ∈ B
) = 1, β = α + m(mod δ). 
Teorema 3.9 Sean P y B como en el teorema anterior, y supongamos que la cadena no 
es nula. Entonces para alg´un m = {0, 1, . . . , δ − 1}, 
l´ımPn+m 
ij = 
( 
π(j) si i ∈ B j ∈ B
β = α + m(mod δ) 
0 en otro caso 
Supongamos que tenemos una cadena finita. Veamos el procedimiento que vamos a 
seguir para calcular la matriz l´ımite de una cadena de Markov: 
1. Identificar los conjuntos cerrados e irreducibles, es decir, las distintas clases de es-tados 
persistentes. 
2. Los restantes son los transitorios. 
3. Estudiar la periodicidad de cada clase cerrada por separado. 
Recordemos que la matriz despu´es de haber identificado cada clase y haber organizado 
las filas y columnas seg´un esa clasificaci´on, la matriz P toma la forma: 
P = 
 
 
P1 0 · · · 0 0 
0 P2 · · · 0 0 
... 
... 
. . . 
... 
... 
0 0 · · · Pm 0 
D1 D2 · · · Dm Q 
 
 
donde Pi son los estados persistentes y Di los transitorios. 
Aplicando los resultados anteriores tenemos la matrizbP 
donde las cajas Pi que tenemos 
en P se contraen a un n´umero que es la unidad, es decir, 
65
bP 
= 
 
 
1 
1 
. . . 
1 
b1 b2 · · · bm Q 
 
 
donde bj(i) = 
X 
k2Cj 
pik i ∈ D. 
As´ı, la matriz bP 
tiene la forma: 
bP 
= 
  
I 0 
B Q 
! 
Para continuar necesitamos calcular las matrices: 
F = [fij ]i,j2S 
R = [rij ]i,j2S 
donde R es lo que se conoce como matriz de potencial, siendo rij el n´umero medio de 
visitas a j partiendo de i. Por fij not´abamos la probabilidad de alcanzar el estado j, por 
primera vez, partiendo del i. Luego, 
rij = E[Nj |X0 = i] 
donde Nj representa el n´umero de visitas a j. 
Veamos como calcular R y F. 
C´alculo de R: R = (rij)i,j2S viene dada por los siguientes valores: 
Si j es recurrente, entonces: 
rij = 
( 
0 si fij = 0 
∞ si fij  0 
Si j es transitorio e i es recurrente ⇒ rij = 0. 
Si j e i son transitorios, entonces: 
(rij)i,j2D = (I − Q)−1. 
C´alculo de F: Para calcular F = (fij)i,j2S, definimos la matriz G = (I − Q)−1B. 
Si i es transitorio y k es recurrente ⇒ fik = gij . 
66
Si i, j son transitorios tal que tienen rij  ∞, entonces: 
 
 
fjj = 1 − 
1 
rjj 
fij = 
rij 
rjj 
Si i, j son recurrentes de la misma clase ⇒ fij = 1. 
Si i es recurrente y j transitorio ´o recurrente de distinta clase ⇒ fij = 0. 
Una vez que hemos calculado R y F podemos calcular la matriz l´ımite P, que en 
realidad es el l´ımite de cada una de las entradas, pues cada clase recurrente Pk tiene su 
propio l´ımite. Cuando llamamos a P matriz l´ımite nos estamos refiriendo al comporta-miento 
l´ımite de todos los estados por separado, en conjunto no es realmente una matriz 
l´ımite (aunque por abuso del lenguaje la llamemos as´ı); luego podemos calcular la matriz 
l´ımite de cada clase cerrada, no de la matriz l´ımite en general. As´ı, dada una matriz Pk, 
su matriz l´ımite viene dada por 
π(k) = π(k)Pk 
donde 
X 
i 
πi(k) = 1. 
As´ı, llegamos a: 
P = 
 
 
P1 
P2 
. . . 
P 
m 
D 
1 D 
2 · · · Dm 
0 
 
 
donde D 
k nos indica la probabilidad de ir de los estados transitorios a los estados re-currentes. 
Adem´as, si i ∈ D (i.e., i es un estado transitorio), en esas cajas se verifica 
que: 
l´ım 
n!1 
pn 
ij = fijπj . 
Veamos ejemplos de como se lleva a la pr´actica: 
Ejemplo: Sea X una cadena de Markov donde S = {1, 2, . . . , 8}, y sea: 
P = 
 
 
0.4 0.3 0.3 0 0 0 0 0 
0 0.6 0.4 0 0 0 0 0 
0.5 0.5 0 0 0 0 0 0 
0 0 0 0 1 0 0 0 
0 0 0 0.8 0.2 0 0 0 
0 0 0 0 0 0.4 0.6 0 
0.4 0.4 0 0 0 0 0 0.2 
0.1 0 0.3 0 0 0.6 0 0 
 
 
67
Se observa que, 
 
{1, 2, 3} 
{4, 5} 
clases de estados recurrentes, irreducibles y aperi´odicos. 
{6, 7, 8} clases de estados transitorios, s´olo pueden alcanzar los estados 1,2 y 3. 
Tenemos, 
bP 
= 
 
 
1 0 0 0 0 
0 1 0 0 0 
0 0 0.4 0.6 0 
0.8 0 0 0 0.2 
0.4 0 0.6 0 0 
 
 
y Q = 
 
 
0.4 0.6 0 
0 0 0.2 
0.6 0 0 
 
 
Entonces, 
(I − Q)−1 = 
 
 
0.6 −0.6 0 
0 1 −0.2 
−0.6 0 1 
 
 
−1 
= 
1 
66 
 
 
125 75 15 
15 75 15 
75 45 75 
 
 
Luego la matriz potencial ser´a: 
R = 
 
 
∞ ∞ ∞ 0 0 0 0 0 
∞ ∞ ∞ 0 0 0 0 0 
∞ ∞ ∞ 0 0 0 0 0 
0 0 0 ∞ ∞ 0 0 0 
0 0 0 ∞ ∞ 0 0 0 
∞ ∞ ∞ 0 0 125 
75 
66 
66 
15 
66 
∞ ∞ ∞ 0 0 15 
66 
75 
66 
15 
66 
∞ ∞ ∞ 0 0 75 
66 
45 
66 
75 
66 
 
 
Por otro lado, 
G = 
 
 
125 
66 
75 
66 
15 
66 
15 
66 
75 
66 
15 
66 
75 
66 
45 
66 
75 
66 
 
 
| {z } 
(I−Q)−1 
 
 
0 0 
0.8 0 
0.4 0 
 
 
| {z } 
B 
= 
 
 
1 0 
1 0 
1 0 
 
 
ahora la matriz F, ser´a 
F = 
 
 
1 1 1 0 0 0 0 0 
1 1 1 0 0 0 0 0 
1 1 1 0 0 0 0 0 
0 0 0 1 1 0 0 0 
0 0 0 1 1 0 0 0 
1 1 1 0 0 0.472 1 0.20 
1 1 1 0 0 0.12 0.12 0.20 
1 1 1 0 0 0.60 0.60 0.12 
 
 
68
Nota 3.18 En las cadenas markovianas todas las filas de la matriz del comportamiento 
l´ımite son iguales. Esto quiere decir que es independiente del estado inicial. 
La matriz l´ımite es de la forma, 
P = 
 
 
π1 π2 π3 0 0 0 0 0 
π1 π2 π3 0 0 0 0 0 
π1 π2 π3 0 0 0 0 0 
0 0 0 π4 π5 0 0 0 
0 0 0 π4 π5 0 0 0 
π1 π2 π3 0 0 0 0 0 
π1 π2 π3 0 0 0 0 0 
π1 π2 π3 0 0 0 0 0 
 
 
donde las πi verifican los siguientes sistemas de ecuaciones: 
 
 
(π1 π2 π3) = (π1 π2 π3) 
 
 
0.4 0.3 0.3 
0 0.6 0.4 
0.5 0.5 0 
 
 
π1 + π2 + π3 = 1 
 
 
(π4 π5) = (π4 π5) 
 
0 1 
0.8 0.2 
 
π4 + π5 = 1 
Resolviendo los sistemas nos queda: 
P = 
 
 
0.22 0.51 0.27 0 0 0 0 0 
0.22 0.51 0.27 0 0 0 0 0 
0.22 0.51 0.27 0 0 0 0 0 
0 0 0 0.4 0.6 0 0 0 
0 0 0 0.4 0.6 0 0 0 
0.22 0.51 0.27 0 0 0 0 0 
0.22 0.51 0.27 0 0 0 0 0 
0.22 0.51 0.27 0 0 0 0 0 
 
 
Ejemplo: Sea X una cadena de Markov donde S = {1, 2, . . . , 7}, y sea: 
P = 
 
 0.2 0.8 0 0 0 0 0 
0.7 0.3 0 0 0 0 0 
0 0 0.3 0.5 0.2 0 0 
0 0 0.6 0 0.4 0 0 
0 0 0 0.4 0.6 0 0 
0 0.1 0.1 0.2 0.2 0.3 0.1 
0.1 0.1 0.1 0 0.1 0.2 0.4 
 
 
69
Se observa que, 
{1, 2} 
{3, 4, 5} 
 
clases de estados recurrentes. 
{6, 7} clases de estados transitorios. 
En este caso, tenemos que 
bP 
= 
 
 
1 0 0 0 
0 1 0 0 
0.1 0.5 0.3 0.1 
0.2 0.2 0.2 0.4 
 
 
⇒ B 
 
0.1 0.5 
0.2 0.2 
 
Por otro lado, 
(I − Q)−1 = 
 
0.7 −0.1 
−0.2 0.6 
−1 
= 
1 
0.4 
 
0.6 0.1 
0.2 0.7 
 
= 
 
1.5 0.25 
0.5 1.75 
 
Luego, 
G = (I − Q)−1B = 
 
1.5 0.25 
0.5 1.75 
  
0.1 0.5 
0.2 0.2 
 
= 
 
0.2 0.8 
0.4 0.6 
 
Con esto, ya podemos obtener R y F: 
R = 
 
 
∞ ∞ 0 0 0 0 0 
∞ ∞ 0 0 0 0 0 
0 0 ∞ ∞ ∞ 0 0 
0 0 ∞ ∞ ∞ 0 0 
0 0 ∞ ∞ ∞ 0 0 
∞ ∞ ∞ ∞ ∞ 1.5 0.25 
∞ ∞ ∞ ∞ ∞ 0.5 1.75 
 
 
, F = 
 
 
1 1 0 0 0 0 0 
1 1 0 0 0 0 0 
0 0 1 1 1 0 0 
0 0 1 1 1 0 0 
0 0 1 1 1 0 0 
0.2 0.2 0.8 0.8 0.8 0.3 0.14 
0.4 0.4 0.6 0.6 0.6 0.3 0.43 
 
 
En este caso, los sistemas de ecuaciones son: 
 
 
(π1 π2) = (π1 π2) 
 
0.2 0.8 
0.7 0.3 
 
π1 + π2 = 1 
 
 
(π3 π4 π5) = (π3 π4 π5) 
 
 
0.3 0.5 0.2 
0.6 0 0.4 
0 0.4 0.6 
 
 
π3 + π4 + π5 = 1 
70
Resolviendo los sistemas podremos escribir P: 
π1 = 0.47 = 7 
15 
π2 = 0.53 = 8 
15 
π3 = 0.26 = 6 
23 
π4 = 0.30 = 7 
23 
π5 = 0.43 = 10 
23 
⇒ P = 
 
 
7 
15 
8 
15 0 0 0 0 0 
7 
15 
8 
15 0 0 0 0 0 
0 0 6 
23 
7 
23 
10 
23 0 0 
0 0 6 
23 
7 
23 
10 
23 0 0 
0 0 6 
23 
7 
23 
10 
23 0 0 
1.4 
15 
1.6 
15 
4.8 
23 
5.6 
23 
8 
23 0 0 
2.8 
15 
3.2 
15 
3.6 
23 
4.2 
23 
6 
23 0 0 
 
 
Ejemplo: Sea X una cadena de Markov donde S = {1, 2, . . . , 7}, y sea: 
P = 
 
 
0.5 0.5 0 0 0 0 0 
0.8 0.2 0 0 0 0 0 
0 0 0 0.4 0.6 0 0 
0 0 1 0 0 0 0 
0 0 1 0 0 0 0 
0.1 0 0.2 0.2 0.1 0.3 0.1 
0.1 0.1 0.1 0 0.1 0.2 0.4 
 
 
Al igual que en el ejemplo anterior, se tiene 
{1, 2} 
{3, 4, 5}periodo2 
 
clases de estados recurrentes. 
{6, 7} clases de estados transitorios. 
En este caso, la matriz bP 
es la misma que la del ejemplo anterior. 
bP 
= 
 
 
1 0 0 0 
0 1 0 0 
0.1 0.5 0.3 0.1 
0.2 0.2 0.2 0.4 
 
 
Luego B y Q son las mismas que antes, lo que implica que G tambi´en coincida con la del 
ejemplo anterior. En este caso, tenemos: 
R = 
 
 
∞ ∞ 0 0 0 0 0 
∞ ∞ 0 0 0 0 0 
0 0 ∞ ∞ ∞ 0 0 
0 0 ∞ ∞ ∞ 0 0 
0 0 ∞ ∞ ∞ 0 0 
∞ ∞ ∞ ∞ ∞ 1.5 0.25 
∞ ∞ ∞ ∞ ∞ 0.5 1.75 
 
 
, F = 
 
 
1 1 0 0 0 0 0 
1 1 0 0 0 0 0 
0 0 1 1 1 0 0 
0 0 1 1 1 0 0 
0 0 1 1 1 0 0 
0.2 0.2 0.8 0.8 0.8 0.3 0.1 
0.4 0.4 0.6 0.6 0.6 0.3 0.4 
 
 
71
En este caso, los sistemas de ecuaciones quedan: 
 
 
(π1 π2) = (π1 π2) 
 
0.5 0.5 
0.8 0.2 
 
π1 + π2 = 1 
 
 
(π3 π4 π5) = (π3 π4 π5) 
 
 
0 0.4 0.6 
1 0 0 
1 0 0 
 
 
π3 + π4 + π5 = 2 
Resolvemos los sistemas para obtener P: 
π1 = 8/13 
π2 = 5/13 
π3 = 1 
π4 = 0.4 
π5 = 0.6 
⇒ P 
1 = 
 
 
8/13 5/13 0 0 0 0 0 
8/13 5/13 0 0 0 0 0 
0 0 0 0.4 0.6 0 0 
0 0 1 0 0 0 0 
0 0 1 0 0 0 0 
0.12 0.08 0.4 0.16 0.24 0 0 
0.24 0.16 0.3 0.12 0.18 0 0 
 
 y 
P 
2 = 
 
 
8/13 5/13 0 0 0 0 0 
8/13 5/13 0 0 0 0 0 
0 0 1 0 0 0 0 
0 0 0 0.4 0.6 0 0 
0 0 0 0.4 0.6 0 0 
0.12 0.08 0.4 0.16 0.24 0 0 
0.24 0.16 0.3 0.12 0.18 0 0 
 
 
Cuando la cadena es infinita es m´as costoso identificar los estados, pues debemos resolver 
un sistema infinito. Adem´as, puede darse el caso de que haya estados transitorios, recu-rrentes 
no nulos y recurrentes nulos (en las cadenas finitas no puede haber recurrentes 
nulos). 
En las cadenas infinitas hay que empezar identificando si hay estados no nulos dadas 
las clases cerradas. Para ello, tenemos el siguiente teorema: 
Teorema 3.10 Dada una cadena de Markov irreducible, consideramos el sistema: 
 
 
π(j) = 
X 
i2S 
π(i)pij j ∈ S 
X 
j2S 
π(j) = 1 
72
Todos los estados ser´an recurrentes no nulos si y s´olo si existe soluci´on ´unica de este 
sistema. 
Si el sistema anterior no tuviese soluci´on, tenemos el siguiente teorema: 
Teorema 3.11 Sea P la matriz de transici´on asociada a la cadena de Markov que estamos 
estudiando, y sea Q la matriz obtenida de P al suprimir la fila y la columna k−´esima 
(k ∈ S cualquiera). Entonces, los estados son recurrentes nulos si y s´olo si el sistema que 
la matriz Q produce tiene soluci´on trivial, es decir, si el sistema tiene precisamente la 
soluci´on trivial. O sea, 
h(i) = 
X 
j2S{k} 
qijh(j) 
0 ≤ h(i) ≤ 1; i ∈ S  {k} 
 
 
=⇒ h(i) = 0. 
Nota 3.19 Si existe soluci´on no trivial del sistema, los estados ser´an transitorios. 
Ejemplo: Estudiar el comportamiento de los estados de los recorridos aleatorios dados 
por la matriz de transici´on 
P = 
 
 
q p 0 0 0 · · · q 0 p 0 0 · · · 
0 q 0 p 0 · · · 0 0 q 0 p · · · 
· · · · · · · · · · · · · · · · · · 
 
 en funci´on del valor p. Determinar las distribuciones l´ımite. 
En P, vemos que todos los estados se comunican entre s´ı, forman una sola clase. 
Resolvemos el sistema π = πP: 
π0 = π0q + π1q 
π1 = π0p + π2q 
π2 = π1p + π3q 
... 
Esto es un sistema infinito. Para resolverlo tomamos π0 = 1 (ya que el sistema es ho-mog 
´eneo y, por tanto, tenemos un grado de libertad) y despejamos el resto de las πi: 
π1 = 
p 
q 
π2 = 
p2 
q2 
... 
73
As´ı, queda: π = 
 
c, c 
p 
q 
, c 
 
p2 
q2 , . . . 
(Tomamos π0 = c en lugar de π0 = 1, para tener todas las soluciones posibles). 
Luego hemos resuelto el sistema, pero esa soluci´on no es buena para cualquier p, q. Ha de 
X1 
ser p  q para que el sistema tenga soluci´on, pues al normalizar, la serie 
i=0 
 
p 
q 
i 
· c ha 
de ser convergente y, como es una serie geom´etrica de raz´on 
p 
q 
, para que sea convergente 
ha de ser p  q. 
Por tanto, si p  q todos los estados son recurrentes no nulos, y la soluci´on del sistema 
ser´ıa: 
πj = 
 
1 − 
p 
q 
 
p 
q 
j 
, j = 0, 1, 2, . . . 
pues ´esta es la soluci´on que hace que 
X 
j 
πj = 1: 
c 
X1 
k=0 
 
p 
q 
k 
= 1 ⇒ c 
1 
1 − 
p 
q 
= 1 ⇒ c = 1 − 
p 
q 
. 
La matriz l´ımite es una matriz infinita. 
Por otro lado, nos va a salir: 
Si p = q ⇒ todos los estados son recurrentes nulos. 
Si p  q ⇒ todos los estados son transitorios. 
Para obtener esta soluci´on, le quitamos a P la 1a fila y la 1a columna, por ejemplo, y 
obtenemos as´ı Q. Despu´es, volvemos a plantear el sistema anterior para ver si tiene o no 
soluci´on. 
Estudiamos entonces el sistema h = Qh: 
Q = 
 
 
0 p 0 0 · · · 
q 0 p 0 · · · 0 q 0 p · · · 
· · · · · · · · · · · · · · · 
 
 
⇒ 
h1 = ph2 
h2 = qh1 + ph3 
h3 = qh2 + ph4 
... 
Haciendo manipulaciones algebraicas obtenemos: 
hi = c 
 
1 + 
q 
p 
+ · · · + 
 
q 
p 
i−1 
# 
, i = 1, 2, . . . 
74
Con esto: 
Si p = q ⇒ hi = c · i 
0  hi  1 | {z } 
=⇒ c = 0 ⇒ todos los estados son recurrentes nulos. 
Si p  q ⇒ hi = 1 − 
 
q 
p 
i 
⇒ todos los estados son transitorios. 
75

Más contenido relacionado

PDF
Contraste hipótesis con solución(sm)
PPT
Isometrias
PPT
Clase anova
PPTX
Resolução de sistemas lineares
PPS
Problemas metricos en espacio
PPT
La normal
PPTX
Simetria - aula centro de mídias - 2024.
PPTX
Casos especiales del metodo simplex
Contraste hipótesis con solución(sm)
Isometrias
Clase anova
Resolução de sistemas lineares
Problemas metricos en espacio
La normal
Simetria - aula centro de mídias - 2024.
Casos especiales del metodo simplex

La actualidad más candente (20)

PDF
93718 81170 (1)
PPTX
Trigonometria - novo
PDF
Sequencias e series calculo
PDF
Exercicios extras-9-ano-relacoes-metricas-e-trigonometria
PDF
Assintotas - Exercícios resolvidos
PPTX
Presentación - Simulación
PPT
Cadena de markov
PDF
Chi cuadrado propiedades
PDF
Breve introducción a control óptimo y programación dinámica
PDF
Función vectorial de variable real
PPT
Análisis de regresión múltiple
PPTX
Simulación - Unidad 3 generacion de variables aleatorias
PDF
Plano de aula sobre Progressões
PDF
Variables instrumentales
PPT
Regras de sinais
PPTX
Ajuste polinomial de curvas
PDF
Cadeias de Markov
PDF
Ap geometria analitica resolvidos
PPT
Perímetro e área do circulo
PDF
Distribución normal y t de student
93718 81170 (1)
Trigonometria - novo
Sequencias e series calculo
Exercicios extras-9-ano-relacoes-metricas-e-trigonometria
Assintotas - Exercícios resolvidos
Presentación - Simulación
Cadena de markov
Chi cuadrado propiedades
Breve introducción a control óptimo y programación dinámica
Función vectorial de variable real
Análisis de regresión múltiple
Simulación - Unidad 3 generacion de variables aleatorias
Plano de aula sobre Progressões
Variables instrumentales
Regras de sinais
Ajuste polinomial de curvas
Cadeias de Markov
Ap geometria analitica resolvidos
Perímetro e área do circulo
Distribución normal y t de student
Publicidad

Similar a Cadenas de markov (20)

PDF
Presentación sobre las Cadenas de Markov
PDF
cpfund10.pdf
PDF
Taller procesos estocásticos
PDF
Quadratic Sieve, algoritmos y ejemplos
PPT
Cadenas de Markov
PPTX
Estado Finito de Cadenas de Markov
DOCX
Cadenas de markov
PPSX
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
DOCX
Interpolacion actividad 4 larry gutierrez 7573674.pptx
DOC
Estimacion de parametros
PDF
U 1 conjuntos y probabilidad (2)
PDF
Cap9 interpolextrapolnumer-ajustedatos3
PDF
Oviedo mco nolineales
PDF
Analisis de señales discretas en t
PDF
1 distribucion binomial y sus momentos
PDF
Analisis numerico .. interpolacion
DOCX
Cadenas de Markov_BLOG_UNEXPO
PDF
Guía de Cálculo (Microeconomía UNAB)
DOCX
Mpro3 u3 a1_livv
Presentación sobre las Cadenas de Markov
cpfund10.pdf
Taller procesos estocásticos
Quadratic Sieve, algoritmos y ejemplos
Cadenas de Markov
Estado Finito de Cadenas de Markov
Cadenas de markov
Capítulo 7 : Paseos aleatorios, desviaciones grandes y martingalas
Interpolacion actividad 4 larry gutierrez 7573674.pptx
Estimacion de parametros
U 1 conjuntos y probabilidad (2)
Cap9 interpolextrapolnumer-ajustedatos3
Oviedo mco nolineales
Analisis de señales discretas en t
1 distribucion binomial y sus momentos
Analisis numerico .. interpolacion
Cadenas de Markov_BLOG_UNEXPO
Guía de Cálculo (Microeconomía UNAB)
Mpro3 u3 a1_livv
Publicidad

Último (20)

PPTX
ASTU_U3_EA_CLMR modelos del sistema turistico.pptx
PDF
PROGRAMA CALEB. par la iglesia es un programa
PDF
HIS. UNI R03 - CLAVES.pdfG05 HIS.UNI- MUNI.pdf
PPTX
DIAPOSITIVA DE TEORIA CRITICA EN EDUCACION - RAMOS ALANIA ANA MARIA.pptx
PDF
Proyecto Bootcamp - Entregables y Documentación.pdf
PPTX
CRITERIOS DE UN SERVICIO DE INTENSIVO presen.pptx
PDF
Mapa mental de cultura social Historia Economica
PDF
Posiciones de EUA en el ranking de los países por IDH ajustado por desigualda...
PPTX
La gestión en los servicios de salud.pptx 1.pptx
PDF
REPORTE DE INCIDENCIA DELICTIVA IRAPUATO 1ER SEMESTRE 2025
PPTX
Las buenas costumbres en la familiaaaaaaa
PPTX
D.4. Ciclos Mq While - Máximos - Mínimos.pptx
PPTX
Sistema Cardiovascular, funciones, partes
PPTX
DIAPOSITIVA DE ADELA CORTINA - RAMOS ALANIA ANA MARIA.pptx
PDF
Ranking de potencias geopolíticas revisado al año (2025).pdf
PPTX
CONVENIO DE GESTION 2025 DIRESA LIMA SAITARIA
PPTX
Curriculo-de-Matematica-Un-Enfoque-por-Competencias.pptx
PPTX
Analisis-Vygotskiano-El-Desarrollo-Temprano-de-0-a-3-Anos.pptx
PDF
Principios d. Anatomía y no se que más poner jaja
PPTX
GUERRAS INTERNACIONALES DE BOLIVIA .pptx
ASTU_U3_EA_CLMR modelos del sistema turistico.pptx
PROGRAMA CALEB. par la iglesia es un programa
HIS. UNI R03 - CLAVES.pdfG05 HIS.UNI- MUNI.pdf
DIAPOSITIVA DE TEORIA CRITICA EN EDUCACION - RAMOS ALANIA ANA MARIA.pptx
Proyecto Bootcamp - Entregables y Documentación.pdf
CRITERIOS DE UN SERVICIO DE INTENSIVO presen.pptx
Mapa mental de cultura social Historia Economica
Posiciones de EUA en el ranking de los países por IDH ajustado por desigualda...
La gestión en los servicios de salud.pptx 1.pptx
REPORTE DE INCIDENCIA DELICTIVA IRAPUATO 1ER SEMESTRE 2025
Las buenas costumbres en la familiaaaaaaa
D.4. Ciclos Mq While - Máximos - Mínimos.pptx
Sistema Cardiovascular, funciones, partes
DIAPOSITIVA DE ADELA CORTINA - RAMOS ALANIA ANA MARIA.pptx
Ranking de potencias geopolíticas revisado al año (2025).pdf
CONVENIO DE GESTION 2025 DIRESA LIMA SAITARIA
Curriculo-de-Matematica-Un-Enfoque-por-Competencias.pptx
Analisis-Vygotskiano-El-Desarrollo-Temprano-de-0-a-3-Anos.pptx
Principios d. Anatomía y no se que más poner jaja
GUERRAS INTERNACIONALES DE BOLIVIA .pptx

Cadenas de markov

  • 1. Cap´ıtulo 3: Cadenas de Markov. Una propiedad de especial importancia que poseen los ya estudiados caminos aleatorios y procesos de ramificaci´on, es que sus valores en el n−´esimo paso s´olo dependen de los valores en el (n − 1)−´esimo paso, y no de los anteriores. Esta propiedad conocida como propiedad markoviana es de gran importancia en el estudio de estos procesos, y en el estudio general de la teor´ıa de procesos estoc´asticos, y por ello prestamos especial dedicaci´on en este cap´ıtulo. A lo largo del cap´ıtulo se supondr´a que trabajamos con procesos de par´ametro discreto, que toman valores discretos en un conjunto numerable. 3.1. Cadenas de Markov Definici´on 3.1 Un proceso X = {Xn : n ≥ 0}, es una cadena de Markov si satisface la siguiente condici´on, llamada condici´on de Markov: P(Xn = xn|X0 = x0,X1 = x1, . . . ,Xn−1 = xn−1) = P(Xn = xn|Xn−1 = xn−1) ∀n ≥ 1 y ∀x0, x1, . . . , xn−1, xn ∈ S. Observaci´on: Intuitivamente, se interpreta esta ecuaci´on como que, dado el “presente” del proceso, el “futuro” es independiente del “pasado”. Es decir, una cadena de Markov es una sucesi´on de v.a. que “ven el pasado a trav´es del ´ultimo suceso”. Nota 3.1 La propiedad markoviana es equivalente a cualquiera de las siguientespropie-dades: 1. P(Xn = xn|Xn1 = xn1 ,Xn2 = xn2 , . . . ,Xnk = xnk ) = P(Xn = xn|Xnk = xnk) ∀n ≥ 0, ∀k; 0 ≤ n1 ≤ n2 ≤ . . . ≤ nk ≤ n; xn1 , . . . , xnk , xn ∈ S. 2. P(Xn+m = xn+m |X0 = x0, . . . ,Xn = xn) = P(Xn+m = xn+m |Xn = xn) ∀n ≥ 0, m ≥ 1; x0, . . . , xn, xn+m ∈ S. Es decir, el valor en el instante n−´esimo depende solamente de la ´ultima observaci´on, que no tiene porque ser la del instante (n − 1)−´esimo. 41
  • 2. Nota 3.2 La evoluci´on de una cadena de Markov viene descrita por sus “probabilidades de transici´on”, pn ij = P(Xn+1 = j |Xn = i), que en un principio dependen de n, i y j. Restringiremos nuestro estudio al caso de que no dependa de n , y s´olo sean relevantes i y j. No obstante, se˜nalar que cuando las probabilidades de transici´on dependan de la etapa n, se dir´a que la cadena de Markov es no homog´enea. Definici´on 3.2 Diremos que una cadena de Markov X es homog´enea si P(Xn+1 = j |Xn = i) = P(X1 = j |X0 = i) ∀n, es decir, la probabilidad de transici´on no depende de la etapa n. Nota 3.3 A partir de ahora consideraremos que todas las cadenas de Markov que tratemos son homog´eneas, a no ser que se diga expl´ıcitamente lo contrario. Definici´on 3.3 Dada una cadena de Markov X , definimos su matriz de transici´on, P, como la matriz de las probabilidades de transici´on de dimensi´on |S| × |S|, Esto es: P = (pij)i,j2S donde pij = P(X1 = j |X0 = i). Ejemplo: (El clima en la tierra de Oz) Seg´un el cuento, en la tierra de Oz nunca hay dos d´ıas seguidos con buen tiempo. A un d´ıa soleado siempre le sigue (con igual probabilidad) un d´ıa de lluvia o nieve. Por otra parte, si un d´ıa tenemos mal tiempo hay 2 posibilidades, que el tiempo sea el mismo al d´ıa siguiente o que cambie. De este modo, si un d´ıa nieva (o llueve) al d´ıa siguiente nevar´a (o llover´a) con probabilidad 1 2 ; pero si cambia el tiempo s´olo la mitad de las veces ser´a un d´ıa soleado. Resoluci´on: Sea Xn ≡ Tiempo en la tierra de Oz el d´ıa n-´esimo. (Xn) es una cadena de Markov, ya que el tiempo en el d´ıa n-´esimo s´olo depender´a del tiempo que haga el d´ıa anterior. Para estudiar este problema, en primer lugar calculamos las probabilidades de tran-sici ´on; es decir, las probabilidades de que teniendo cierto tiempo un d´ıa determinado al d´ıa siguiente el tiempo cambie. Para ello, notaremos por s si el d´ıa est´a soleado, con l si llueve y con n si nieva. 42
  • 3. pss = 0 de un d´ıa soleado a un d´ıa soleado psl = 1/2 de un d´ıa soleado a un d´ıa lluvioso psn = 1/2 de un d´ıa soleado a un d´ıa con nieve pll = 1/2 de un d´ıa lluvioso a un d´ıa lluvioso pls = 1/4 de un d´ıa lluvioso a un d´ıa soleado pln = 1/4 de un d´ıa lluvioso a un d´ıa con nieve pnn = 1/2 de un d´ıa con nieve a un d´ıa con nieve pnl = 1/4 de un d´ıa con nieve a un d´ıa lluvioso pns = 1/4 de un d´ıa con nieve a un d´ıa soleado Ordenamos todos estos datos en la siguiente tabla: s l n s 0 1/2 1/2 l 1/4 1/2 1/4 n 1/4 1/4 1/2 donde las filas indican el tiempo en un d´ıa determinado, las columnas el tiempo que hace al d´ıa siguiente y las entradas son las probabilidades de cambio o transici´on. A partir de aqu´ı obtenemos la matriz de transici´on: P =   0 1/2 1/2 1/4 1/2 1/4 1/4 1/4 1/2   Ejemplo: Sea el proceso estoc´astico X = {Xn : n ≥ 0}, definido por: P(Xn = j |Xn−1 = i) =   p si j = i + 1 q si j = i 0 en casao contrario donde q = 1 − p. Tenemos que, P(Xn = j |Xn−1 = i,Xn−2 = xn−2, . . . ,X0 = x0) = P(Xn = j |Xn−1 = i) Luego verifica la condici´on de Markov. Veamos ahora la matriz de transici´on. Dado que S = {0, 1, 2, . . .}, la matriz de transi-ci ´on va a ser de dimensi´on infinita: 43
  • 4. P =   q p 0 0 · · · 0 · · · 0 q p 0 · · · 0 · · · 0 0 q p · · · 0 · · · ... ... ... . . . . . . ... ... 0 0 0 0 q p · · · 0 0 0 0 0 q · · · ... ... ... ... ... ... . . .   Proposici´on 3.1 La matriz de transici´on de una cadena de Markov P es una matriz estoc´astica, es decir, verifica: Cada elemento de P es no negativo, pij = P(Xn+1 = j |Xn = i) ≥ 0; ∀i, j ∈ S. Cada fila de P suma 1, X j2S pij = X j2S P(X1 = j |X0 = i) = 1 Estudiaremos las cadenas de Markov a “corto plazo” y a “largo plazo”. Como ya hemos visto, la matriz de transici´on nos permite el estudio a “corto plazo”, describiremos la evoluci´on a “largo plazo” como sigue: Definici´on 3.4 La matriz de transici´on del n-´esimo paso, Pn = (pij(n)), es la matriz de las probabilidades de transici´on en el n−´esimo paso desde el origen, pij(n) = P(Xn = j |X0 = i) Es decir, es la probabilidad de partiendo de i llegar a j en n pasos. Nota 3.4 Trivialmente P1 = P. En el siguiente teorema, mostraremos la relaci´on que existe entre el desarrollo a “largo plazo” y el desarrollo a “corto plazo”, y veremos como Xn depende de la variable inicial X0. Teorema 3.1 (Ecuaciones de Chapman-Kolmogorov) pij(m + n) = X k2S pik(m)pkj(n) 44
  • 5. Demostraci´on: pi,j(m + n) = P(Xn+m = j |X0 = i) prob. total = = X k2S P(A ∩ B|C) = P(A|B ∩ C)P(B|C) | {z } P(Xn+m = j,Xm = k |X0 = i) ↓= = X k2S P(Xn+m = j |Xm = k,X0 = i)P(Xm = k|X0 = i) cond. Markov = = X k2S P(Xn+m = j |Xm = k)P(Xm = k|X0 = i) = = X k2S pik(m)pkj(n) Nota 3.5 De aqu´ı se deduce que Pm+n = PmPn y, por lo tanto, que Pn = Pn. Estudiaremos ahora la funci´on de probabilidad de la variable aleatoria Xn, notaremos xni = P(Xn = i) ≡ Probabilidad de que la cadena en la etapa n est´e en el estado i. xn = (xn1 , . . . , xn |S|). Veamos la relaci´on que hay entre xni y la matriz de transici´on. Lema 3.1 xm+n = xmPn y, por lo tanto, xn = x0Pn. Demostraci´on: xm+n j = P(Xm+n = j) P.T. = X i2S P(Xm+n = j,Xm = i) = = X i2S P(Xm+n = j |Xm = i)P(Xm = i) = X i2S xm i pij(n) = (xmPn)j = (xmPn)j . Observaci´on: La evoluci´on aleatoria de una cadena de Markov queda completamente determinada por su matriz de transici´on P y su distribuci´on de densidad inicial x0. Por lo tanto, el estudio de las cadenas de Markov es reducible al estudio algebraico de las propiedades de las matrices de transici´on. Ejemplo: Camino Aleatorio. S = {0,±1,±2, . . .}. Part´ıcula que se mueve hacia arriba o hacia abajo. pij =   p si j = i + 1 q si j = i − 1 0 e.c.c. P = (pij) 45
  • 6. • Calcular la matriz de transici´on del n−´esimo paso. Podr´ıamos intentar calcular Pn partiendo de la matriz anterior por sucesivas multipli-caciones, pero en ´este caso podemos proceder: Si hubiese u pasos hacia arriba, tenemos pij(n) = n u puqn−u como j − i = u − (n − u) ⇒ j − i = 2u − n ⇒ u = j − i + n 2 ∈ Z. Por tanto: pij(n) =   n n+j−i 2 p n+j−i 2 q n−j+i 2 si n + j − i par 0 en caso contrario Ejemplo: N´umero de caras en sucesivos lanzamientos de una moneda. Sea la cadena Y = {Yn : n ≥ 0}, con Y0 = 0, que representa el n´umero de caras en n lanzamientos. P(Yn+1 = s + 1 |Yn = s) = p P(Yn+1 = s |Yn = s) = q = 1 − p ) ∀n ≥ 0; 0 p 1. • Calcular pij(m): pij(m) = P(Yn+m = j |Yn = i) = m j − i pj−iqm−j+i, j ≥ i. Luego que en m lanzamientos salgan j − i caras ∼ Bi(m, p). Ejemplo: Si perturbamos el proceso anterior y definimos, X = {Xn : n ≥ 0} donde Xn = Yn(mod. 10). En este caso, tenemos solo 10 estados, S = {0, 1, . . . , 9}. Luego la matriz de transici´on es de orden 10 × 10: P =   q p 0 0 · · · 0 0 q p 0 · · · 0 0 0 q p · · · 0 ... ... ... . . . . . . ... 0 0 0 · · · q p p 0 0 · · · 0 q   46
  • 7. Ejemplo: El nivel de negocio de la Bolsa puede considerarse cada d´ıa alto (A) o bajo (B). Para un periodo de 5301 d´ıas se dispone de la secuencia BAABBA..., y que nos permite representar la alternancia mediante el cuadro adjunto: B A B 3077 543 A 588 1092 ¿Podr´ıa indicar alguna relaci´on entre la duraci´on de ciclos de d´ıas de nivel alto con los d´ıas de nivel bajo a tenor de dichos datos? Debemos normalizar la matriz por filas: B A B 0.85 0.15 A 0.35 0.65 = P Supongamos que la bolsa est´a regida por dicho matriz de probabilidad. Si la bolsa est´a baja ⇒ la probabilidad de que al d´ıa siguiente est´e baja es 0.85. Si elevamos la matriz al cuadrado, P2, significa el pasar de A a B o de B a A en dos d´ıas. Si vamos calculando potencias de P, veamos por ejemplo P8, P8 =   359 512 153 512 357 512 155 512   observamos que las dos filas se van pareciendo cada vez m´as, el sistema se va estabilizando. Nosotros estamos interesados en lo que ocurre en el l´ımite, es decir, l´ım n!1 Pn = 0.7 0.3 0.7 0.3 # (se obtiene resolviendo πP = π). Esto va a representar la fracci´on de tiempo que la bolsa est´a en B y la fracci´on de tiempo que la bolsa est´a en A. Entonces nos dice que la bolsa est´a m´as tiempo en baja que en alta. Nota 3.6 πi ≡ probabilidad estacionaria de estar en el estado i. Siendo μi = 1 πi ≡ frecuencia que tarda en ser visitado el estado i. 47
  • 8. As´ı, μ1 = 1.4 → la bolsa tarda en volver a baja 1.4 d´ıas. μ2 = 3.3 → la bolsa tarda en volver a alta 3.3 d´ıas. ) ⇒ ⇒ tarda en volver a alta m´as del doble que en volver a baja. Nota 3.7 Nos interesa, para estos modelos, ver si se ajusta a una cadena de Markov y, en tal caso, hallar la matriz de transici´on y su comportamiento l´ımite. Ejemplo: Un taller de reparaci´on se ocupa de dos tipos de motores. La reparaci´on de un motor de tipo M1 requiere dos d´ıas y la del tipo M2 s´olo un d´ıa. La probabilidad de aver´ıa para los motores de tipo uno es de 1/3 mientras que es de 1/2 para los de tipo dos. Los trabajos no admitidos en el taller se encargan al exterior. Sabiendo que si una jornada de reparaci´on ha sido asignada a un motor de tipo uno, se rechaza todo trabajo que pueda presentarse al d´ıa siguiente; en otro caso se admitir´a cual-quier tarea si no se presenta m´as que una. Decidir que pol´ıtica es mejor: dar prioridad a los motores de tipo uno (dos) cuando se presenten para su reparaci´on motores de ambos tipos. Podemos tener el taller sin trabajo, con un motor de tipo 1 en un d´ıa,con un motor de tipo 1 en dos d´ıas o con un motor de tipo 2. Al d´ıa siguiente el taller puede estar en tres estados distintos, de los cuatro posibles . Intentemos determinar la matriz de transici´on dando prioridad al motor de tipo 1, M1: 0 1 2 3 NO TRABAJO ESTADO: 0 1 − 1 3 1 − 1 2 1 3 0 1 2 1 − 1 3 M1(1) ESTADO: 1 0 0 1 0 M1(2) ESTADO: 2 1 − 1 3 1 − 1 2 1 3 0 1 2 1 − 1 3 M2 ESTADO: 3 1 − 1 3 1 − 1 2 1 3 0 1 2 1 − 1 3   1/3 1/3 0 1/3 0 0 1 0 1/3 1/3 0 1/3 1/3 1/3 0 1/3   Dando prioridad al motor de tipo 2, M2, tenemos: 48
  • 9.   1/3 1/6 0 1/2 0 0 1 0 1/3 1/6 0 1/2 1/3 1/6 0 1/2   El taller tiene dos comportamientos seg´un elijamos la pol´ıtica de dar prioridad a M1 ´o a M2, que est´an regidos por las dos matrices de transici´on. Si calculamos la matriz l´ımite, haciendo π = πP tenemos: π = 1 4 , 1 4 , 1 4 , 1 4 para el primer caso. π = 2 7 , 1 7 , 1 7 , 3 7 para el segundo caso. As´ı, dado que no queremos tener mucho tiempo el taller parado, nos interesa la pol´ıtica del tipo 1, pues a largo plazo tiene mas ocupado el taller, 2 7 1 4 . 3.2. Clasificaci´on de estados. Podemos pensar en el desarrollo de una cadena como el movimiento de un part´ıcula que salta entre los estados de S en cada momento. Nos interesaremos por el n´umero (posiblemente infinito) de instantes que tarda la part´ıcula en regresar a su punto de origen. Sin embargo, ¿ha de volver la part´ıcula a su punto inicial? Con esta pregunta en mente realizamos la siguiente definici´on. Definici´on 3.5 El estado i es persistente ( o recurrente) si: P(Xn = i para alg´un n ≥ 1 |X0 = i) = 1 es decir, si la probabilidad de que la part´ıcula regrese al estado i, habiendo empezado en i, es 1. Si el estado i no es persistente lo llamaremos al estado transitorio, es decir, si esta probabilidad es menor que la unidad. Tambi´en estamos interesados en el n´umero de pasos hasta la primera visita al estado j partiendo del estado i. La probabilidad de que partiendo del estado i lleguemos por primera vez al estado j en n pasos la representamos por: ( fij(n) = P(X16= j,X26= j, . . . ,Xn−16= j,Xn = j |X0 = i) fij(0) = 0 49
  • 10. Notaremos la probabilidad de que partiendo del estado i alcancemos alguna vez el estado j ser´a: fij = X n1 fij(n) Claro es que el estado i es persistente si y s´olo si fii = 1. Ahora buscamos un criterio para determinar si un estado es persistente o no, bas´ando-nos en las probabilidades de transici´on. Como ya hicimos en las caminos aleatorios, defi-nimos las siguientes funciones generatrices: Pij(s) = X n0 pij(n)sn Fij(s) = X n1 fij(n)sn Con la convenci´on de que pij(0) = δij (delta de Kronecker) y fij(0) = 0 ∀i, j ∈ S. Claramente se tiene que fij = Fij(1). A continuaci´on, veremos que se verifican relaciones an´alogas al caso de los caminos aleatorios entre las dos funciones generatrices Fij y Pij . Teorema 3.2 Se verifican las siguientes relaciones: 1. Pii(s) = 1 + Pii(s)Fii(s). 2. Pij(s) = Pjj(s)Fij(s) si i6= j. Demostraci´on: Fijamos i, j ∈ S, sea Am = {Xm = j} y Bm el suceso de que la primera visita a j ocurra en el instante m, es decir, Bm = {Xr6= j para 1 ≤ r m, Xm = j}. Los Bm son disjuntos luego tenemos: P(Am |X0 = i) P.T. = Xm r=1 P(Am ∩ Br |X0 = i) Utilizando la propiedad de Markov y la definici´on de probabilidad condicionada tenemos: P(Am ∩ Br |X0 = i) = P(Am |Br ∩ X0 = i)P(Br |X0 = i) = = P(Am |Xr = j)P(Br |X0 = i) = pjj(m − r)fij(r) As´ı pues: pij(m) = P(Am |X0 = i) = Xm r=1 pjj(m − r)fij(r), ∀m ≥ 1. 50
  • 11. Ahora basta multiplicar por sm y sumar en m aplicando las propiedades sobre convoluci´on para llegar a lo que quer´ıamos. As´ı, X1 m=1 pij(m)sm = X1 m=1 Xm r=1 pjj(m − r)fij(r)sm = = X1 r=1 X1 m=r pjj(m − r)sm−rfij(r)sr = = X1 m=r pjj(m − r)sm−r X1 r=1 fij(r)sr. Luego, Pij(s) − δij = Pjj(s)Fij(s). Veamos ahora como caracterizamos los estados a partir de las probabilidades de tran-sici ´on. Corolario 3.1 Los estados de una cadena de Markov se clasifican en: 1. Un estado j es persistente ⇐⇒ X1 n=0 pjj(n) = ∞. Adem´as, en este caso: X1 n=0 pij(n) = ∞, ∀i tal que fij 0. 2. Un estado j es transitorio ⇐⇒ X1 n=0 pjj(n) ∞. Adem´as, X1 n=0 pij(n) ∞, ∀i. Demostraci´on: 1. Sea I{Xn=i} la variable indicador de {Xn = i}. I{Xn=i} = 1 si Xn = i 0 si Xn6= i I{Xn=i} ≈ Be(p) ; con p = P[Xn = i|X0 = i] 51
  • 12. Sea Ni el n´umero de veces que se visita el estado i (dado X0 = i) X1 E[Ni] = E[ n=0 I{Xn=i}|X0 = i] = X1 n=0 E[I{Xn=i}|X0 = i] = X1 n=0 P[Xn = i|X0 = i] = X1 n=0 pii(n) = ∞ () ⇐⇒ i es recurrente. Ya s´olo quedar´ıa probar el paso (∗): P[Ni = n] = fn−1 ii (1 − fii) ; n = 1, 2, ... Ni ≈ Ge(p) ; p = 1 − fii. N(i) ≈ Ge(p) =⇒ E[Ni] = 1 p =⇒ E[Ni] = 1 1 − fii E[Ni] = ∞ ⇐⇒ fii = 0 ⇐⇒ i es recurrente. Del apartado 1. del teorema 3.2 tenemos que Pjj(s) = 1 1 − Fjj(s) , ∀|s| 1. Entonces, si tomamos l´ımite tenemos l´ım s!1 Pjj(s) = ∞ ⇔ l´ım s!1 Fjj(s) = 1 ⇔ fjj = 1 es decir, Pjj(1) = X1 n=0 pjj(n) = ∞ ⇔ j es persistente. Cuando i6= j se tiene Pij(s) = Fij(s)Pjj(s) s!1 =⇒ X1 n=0 pij(n) = |f{izj} ∨0 X1 n=0 pjj(n) = ∞. Para b,razonamos por exclusi´on, si la suma es infinita ⇒ el estado es persistente. Por tanto, si la suma es finita ⇒ el estado ser´a transitorio. Corolario 3.2 Si j es transitorio ⇒ pij(n) n!1 −→ 0, ∀i. Demostraci´on: Basta aplicar el corolario anterior: j es transitorio ⇔ X1 n=0 pjj(n) ∞, ∀i ⇒ pij(n) n!1 −→ 0, ∀i. 52
  • 13. Observaci´on: As´ı pues cada estado es ´o persistente ´o transitorio. Es intuitivamente claro que el n´umero N(i) de veces que la cadena visita el estado i satisface: P(N(i) = ∞) = 1 si i es persistente 0 si i es transitorio Ya que tras cada visita a i el regreso es cierto si y solo si fii = 1, es decir, si i es persistente. Supongamos {Xn : n ≥ 0} una cadena de Markov tal que X0 = i. Otra forma de clasificar los estados es a trav´es de la variable que nos indica el n´umero de instantes antes de la primera visita al estado i : Ti = m´ın{n ≥ 1 : Xn = i} Tomamos el convenio de que Ti = ∞ cuando tal visita nunca ocurra. Tenemos que P(Ti = ∞|X0 = i) 0 si y solo si i es transitorio, y en este caso, E[Ti |X0 = i] = ∞. Definici´on 3.6 Definimos el tiempo medio de recurrencia μi del estado i como: μi = E[Ti |X0 = i] = X1 n=0 nfii(n) es decir, como el n´umero de instantes esperado para regresar al estado i por primera vez. Nota 3.8 Si i es transitorio =⇒ μi = ∞. Nota 3.9 Puede darse el caso de que siendo i persistente el tiempo medio de recurrencia, μi, sea infinito; siendo ´este el caso en el que aunque el regreso a i es cierto se necesita un tiempo infinito. As´ı pues, realizamos la siguiente distinci´on entre los estados persistentes. Definici´on 3.7 Sea i un estado persistente, entonces: ( i es un estado persistente nulo si μi = ∞ i es un estado persistente no nulo si μi ∞ El siguiente teorema nos da una caracterizaci´on para estados persistentes nulos. Teorema 3.3 Un estado i es persistente nulo ⇔ pii(n) n!1 −→ 0. Adem´as, en este caso, pji(n) n!1 −→ 0, ∀j. 53
  • 14. Nota 3.10 Destacar que al ser un estado j persistente se tiene que X1 n=0 pij(n) = ∞, y as´ı para ser persistente nulo tiene que darse que pij(n) n!1 −→ 0, ∀i. Tambi´en destacar que la condici´on pij(n) n!1 −→ 0 es necesaria para que un estado sea transitorio, pero no suficiente como se mostr´o en el corolario 3.2. Ejemplo: Recorrido Aleatorio. Supongamos un recorrido aleatorio, y sean p0(n) ≡ probabilidad de volver al estado 0 tras n pasos. f0(n) ≡ probabilidad de 1a visita al estado 0 tras n pasos. • Calcular P0(s) y F0(s). Como P0(s) = 1 − F0(s)P0(s), basta calcular una de ellas. p0(n) =   n n 2 p n 2 q n 2 si n par 0 si n impar Con p0(n) podemos calcular la f.g.p.: P0(s) = X1 n=0 p0(n)sn = X1 k=0 p0(2k)s2k = X1 k=0 2k k pkqks2k = (1 − 4pqs2)−1 2 . Por tanto, P0(s) = (1 − 4pqs2)−1 2 P0(s) = 1 − F0(s)P0(s) ) =⇒ F0(s) = 1 − (1 − 4pqs2)−1 2 En base a ello podemos clasificar los estados de la cadena: Si p = 1 2 ⇒ X1 n=0 p0(n) = P0(1) = 1 − 4· 1 2 · 1 2 ·1 −1 2 = ∞. Luego el estado 0 es persistente ( por conexi´on, todos los estados son persistentes). Para ver si son persistentes nulos o no nulos, calculamos μ0: μ0 = X1 n=0 ′ 0(1) = . . . = nf0(n) = F s √1 − s2
  • 18. s=1 = ∞ Luego el estado 0 es persistente nulo. Aunque la probabilidad de volver al estado 0 es 1 (persistente), el no medio de pasos para volver es ∞. 54
  • 19. Si p6= 1 2 ⇒ P0(1) = (1 − 4pq1)−1 2 ∞ ⇒ el estado 0 es transitorio. ( todos los estados son transitorios). Finalmente, introducimos una definici´on que nos permite estudiar sobre los periodos de tiempo en los cuales el regreso al punto de partida es posible. Definici´on 3.8 Definimos el periodo d(i) de un estado i ∈ S como: d(i) = mcd{n : pii(n) 0} es decir, como el mayor com´un divisor de los lapsos de tiempo tomados en regresar a i cuando el regreso a i es posible. Diremos que un estado i es peri´odico si d(i) 1 y que un estado i es aperi´odico si d(i) = 1. Las cadenas de mayor aplicaci´on son aquellas en las que los estados tienen mejor comportamiento, por ello damos la siguiente definici´on Definici´on 3.9 Diremos que un estado i es erg´odico si es persistente no nulo y ape-ri ´odico. Es decir, si P(Xn = i para alg´un n ≥ 1 |X0 = i) = 1, μi ∞ (el tiempo esperado de regreso es finito) y mcd{n : pii(n) 0} = 1. 3.3. Clasificaci´on de las cadenas. Comenzaremos viendo la forma en la que los estados de una cadena de Markov se relacionan entre s´ı. Definici´on 3.10 Sean i, j ∈ S. Diremos que i comunica con j(se denota i → j), si la cadena visita el estado j con probabilidad positiva partiendo del estado i. Es decir, si ∃n ≥ 0 tal que pij(n) 0. Diremos que i y j est´an intercomunicados(se denota i ↔ j), si i → j y j → i. Es decir, si ∃n,m ≥ 0 tales que pij(n) 0 y pji(m) 0. Nota 3.11 La relaci´on ↔ es de equivalencia y, por tanto, define una partici´on en el conjunto de estados S en clases de equivalencia. Dentro de cada clase de equivalencia todos los estados son del mismo tipo como veremos en el siguiente teorema. Teorema 3.4 Supongamos que i ↔ j, entonces: 1. d(i) = d(j), es decir, i y j tienen el mismo periodo. 55
  • 20. 2. i es transitorio ⇔ j es transitorio. 3. i es persistente nulo ⇔ j es persistente nulo. Demostraci´on: 1. Si i ↔ j ⇒ ∃m, n tales que pij(m) 0 y pji(n) 0. Por el teorema de Chapman-Kolmogorov, tenemos: pii(m + n) ≥ pij(m)pji(n) 0 ⇒ m + n es m´ultiplo de d(i). (∗) pjj(m + n) ≥ pji(n)pij(m) 0 ⇒ m + n es m´ultiplo de d(j). (∗∗) pii(m + d(j) + n) ≥ pij(m)pjj(d(j))pji(n) 0 ⇒ m + d(j) + n es m´ultiplo de d(i). (⋆) pjj(m + d(i) + n) ≥ pij(n)pjj(d(i))pji(m) 0 ⇒ m + d(i) + n es m´ultiplo de d(j). (⋆⋆) De aqu´ı, (∗) y (⋆) ⇒ d(j) es m´ultiplo de d(i) (∗∗) y (⋆⋆) ⇒ d(i) es m´ultiplo de d(j) ) ⇒ d(i) = d(j). 2. Supongamos i transitorio ⇔ X n pij(n) ∞ ⇒ ∀j, X n pij(n) ∞. Supongamos ahora que i es transitorio y que hay otro estado j que comunica con ´el que no lo es. As´ı, i transitorio, j no transitorio, i ↔ j. Entonces, ∃m, n tales que pij(m) 0 y pji(n) 0. Por el teorema de Chapman-Kolmogorov, tenemos: pii(m + r + n) ≥ pij(m)pjj(r)pji(n) = αpjj(r), ∀r, donde α = pij(m)pji(n) 0. Sumando en r esta expresi´on, ∞ X r pii(m + r + n) ≥ α X r pjj(r) 0 =⇒ X r pjj(r) ∞ ⇒ j es transitorio. 3. Supongamos i persistente no nulo ⇔ pii(n) n!1 −→ 0. An´alogamente a la demostraci´on de 2., pero usando la caracterizaci´on anterior, se llega a que si i es persistente nulo ⇒ j tambi´en lo es, pues pii(m + r + n) n!1 −→ 0, y pii(m + r + n) ≥ αpjj(r) 56
  • 21. con α = pij(m)pji(n) 0. Entonces, pjj(r) r!1 −→ 0 ⇒ j es persistente nulo. Nota 3.12 Por exclusi´on, si i es persistente no nulo, como j no puede ser ni transitorio ni persistente nulo ⇒ j ser´a persistente no nulo. A continuaci´on definimos distintos tipos de clases de estados: Definici´on 3.11 Sea C ⊆ S un conjunto de estados, diremos que C es: i. cerrado si ∀i ∈ C, j /∈ C, pij = 0. ii. irreducible si ∀i, j ∈ C, i ↔ j. Observaci´on: Una vez que la cadena toma un valor en una clase cerrada de estados C entonces nunca la dejar´a en el futuro. Si un conjunto de estados cerrado est´a formado por un ´unico estado, a este estado se le llamar´a absorbente. Es claro que las clases de equivalencia de ↔ son irreducibles. Diremos que C tiene una propiedad si todos los estados de C tienen dicha propiedad. Si todo el conjunto de estados S es irreducible entonces diremos que la cadena es irreducible. Podemos ya formular el siguiente importante teorema. Teorema 3.5 (Teorema de descomposici´on de las Cadenas de Markov) El espa-cio de estados S de una cadena de Markov X, tiene la siguiente partici´on ´unica: S = T ∪ C1 ∪ C2 ∪ · · · donde T es un conjunto de estados transitorios, y Ci son clases cerradas e irreducibles de estados persistentes. Nota 3.13 El teorema de descomposici´on nos muestra las posibilidades que pueden darse en una cadena de Markov. Esto es, si X0 ∈ Cr, entonces la cadena nunca abandonar´a la clase Cr y entonces, podemos considerar el espacio de estados S = Cr. Por otra parte, si X0 ∈ T entonces, o la cadena permanece por siempre en T o se mueve a una clase Ck y permanece ah´ı por siempre. As´ı, o la cadena siempre toma valores en el conjun-to de estados transitorios o acaba en un conjunto cerrado persistente de estados donde permanecer´a por siempre. Veamos ahora que en el caso en el que S sea finito la primera situaci´on no puede darse. Nota 3.14 Eventualmente T puede ser vac´ıo. Nota 3.15 Si |S| +∞ ⇒ las cadenas son m´as sencillas. 57
  • 22. Teorema 3.6 Si S es finito, todos los estados no pueden ser transitorios, siendo todos los estados persistentes no nulos. Demostraci´on: Por reducci´on al absurdo, supongamos que todos los estados son transitorios. Entonces tendr´ıamos que ∀i, X j2S pij(n) = 1 Adem´as, por el corolario 3.2, tenemos que pij(n) n!1 −→ 0, ∀i, j ∈ S. Luego: 1 = l´ım n!1 1 = l´ım n!1 X j2S pij(n) fta. = X j2S l´ım n!1 pij(n) = X j2S 0 = 0 Llegar´ıamos a la misma contradicci´on si supusi´esemos que existe un estado persistente nulo, ya que en este caso tambi´en se tiene que pij(n) n!1 −→ 0. Ejemplo: Sea S = {1, 2, 3, 4, 5, 6}. P =   1/2 1/2 0 0 0 0 3/4 1/4 0 0 0 0 1/4 1/4 1/4 1/4 0 0 1/4 0 1/4 1/4 0 1/4 0 0 0 0 1/2 1/2 0 0 0 0 1/2 1/2   Clasificaci´on de los estados: El estado 3 es transitorio, ya que para ser persistente tendr´ıa que tener probabilidad 1 de volver a 3 saliendo de 3 y si salimos al estado 1 ya no volvemos a 3. El estado 4 tambi´en es transitorio. Luego, T = {3, 4} La clase {1, 2} es irreducible , al igual que {5, 6} . Con la matriz de transici´on es suficiente para conocer una cadena. Utilizando los teoremas anteriores, tenemos que dada una cadena de Markov sobre el espacio S, el conjunto de estados puede descomponerse como: S = T ∪ C1 ∪ C2 ∪ · · · 58
  • 23. Renombrando a los estados adecuadamente llegamos a que la matriz de transici´on se puede expresar como sigue: P =   C1 0 · · · 0 0 0 C2 · · · 0 0 ... ... . . . ... ... 0 0 · · · Cm 0 D1 D2 · · · Dm Q   donde Ci son las matrices correspondientes a los estados persistentes, y Di a los transi-torios. Ejemplo: Sea X una cadena de Markov con S = {1, 2, . . . , 10}. Sea P =   1/2 0 1/2 0 0 0 0 0 0 0 0 1/3 0 0 0 0 2/3 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 1/3 1/3 0 0 0 1/3 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 1/4 0 3/4 0 0 0 1/4 1/4 0 0 0 1/4 0 1/4 0 1 0 0 0 0 0 0 0 0 0 1/3 0 0 1/3 0 0 0 0 1/3   Hacemos el siguiente grafo: 1 3 10 2 7 9 5 4 6 8 1 , 3 8 , 5 , 4 , 10 2 , 7 , 9 y as´ı, 59
  • 24. {1, 3} {2, 7, 9} {6}   conjuntos cerrados, irreducibles, recurrentes, no nulos. {4, 5, 8, 10} conjunto transitorio. {1, 3, 2, 7, 9, 6} ninguno es transitorio o recurrente nulo. {6} es absorvente. Luego la matriz de transici´on se puede expresar del siguiente modo: P =   1 0 0 0 0 0 0 0 0 0 0 1/2 1/2 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 1/3 2/3 0 0 0 0 0 0 0 0 0 1/4 3/4 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 1/3 1/3 1/3 0 0 0 0 1/4 0 0 0 1/4 0 1/4 1/4 0 0 0 1/3 0 0 0 1/3 0 1/3   Ejemplo: Sean las cadenas de Markov dadas por las siguientes matrices de transici´on. Identificar gr´aficamente el tipo de estado al que pertenecen cada uno de ellos. a) P1 =   1/2 0 1/2 0 0 0 1/4 0 3/4 0 0 0 1/3 0 2/3 1/4 1/2 0 1/4 0 1/3 0 1/3 0 1/3   Hacemos en primer lugar un grafo de los estados. A trav´es del grafo se puede identificar qu´e estados son recurrentes y cu´ales transitorios. Asignamos a un estado cualquiera los signos ±. Por ejemplo, al estado 1. Si se se˜nala un estado con un signo + (por ejemplo el i) se se˜nalan tambi´en con + los estados j que siguen al i. Por ejemplo, hemos se˜nalado 1 con +, entonces seguir´a el estado 3 con + y, despu´es del estado 3, el estado 5 tambi´en con +. Si se se˜nala un estado con signo −, se se˜nalan tambi´en con − a todos los estados que lo preceden. Por ejemplo, si el 1 tiene signo −, ponemos signo − tambi´en a los estados 4 y 5; como el 3 precede al 5 le ponemos tambi´en signo −, y como el 2 precede al 4, le ponemos tambi´en signo −. 60
  • 25. −+ −+ −+ 1 2 3 4 5 − − Aquellos estados se˜nalados con el doble signo ± forman una clase de estados comuni-cados. En nuestro caso, forman esa clase los estados 1,3,5. Para ver lo que les ocurre a los estados restantes, le damos ± de partida a otro estado que no est´e en la clase que ya nos ha salido y repetimos los mismos pasos. En nuestro caso, le damos ± al estado 2 por ejemplo, obteniendo que {2, 4} forman una clase comunicada. −+ −+ 1 2 3 4 5 + + + Tenemos entonces dos clases comunicadas, {1, 3, 5} y {2, 4}, ya que si cogemos otros estados distintos de partida para asignarles el ± nos salen las mismas clases. {2, 4} son estados transitorios porque cuando salen ya no vuelven. Una cadena finita nunca puede tener todos sus estados transitorios. Ahora reescribimos la matriz P1 de forma que los elementos de una misma clase est´en juntos. As´ı, nos queda: 61
  • 26. P1 =   1/2 1/2 0 0 0 0 1/3 2/3 0 0 1/3 1/3 1/3 0 0 0 0 0 1/4 3/4 1/4 0 0 1/2 1/4   b) P2 =   0 0.8 0 0 0 0 0.2 0 0.3 0 0 0 0 0.7 0 0 0.3 0.5 0.2 0 0 0 0 0.6 0 0.4 0 0 0 0 0 0.4 0.6 0 0 0.1 0.1 0.1 0.2 0.2 0.3 0 0.4 0.1 0.1 0 0.1 0.2 0.1   −+ −+ −+ −+ + −+ −+ −+ 1 2 3 4 6 5 7 + + − − − − {1 , 2 , 6 , 7} Transitorios {3 , 4 , 5} Reescribimos la matriz P2: P2 =   0.3 0.5 0.2 0 0 0 0 0.6 0 0.4 0 0 0 0 0 0.4 0.6 0 0 0 0 0 0 0 0 0.8 0 0.2 0 0 0 0 0.3 0 0.7 0.1 0.2 0.2 0.1 0.1 0.3 0 0.1 0 0.1 0.4 0.1 0.2 0.1   Ahora nos interesa saber que ocurre con la cadena {Xn} cuando n → ∞. La matriz P en conjunto no tiene un estado l´ımite, sino cada uno de los estados que est´an en la misma clase. 62
  • 27. 3.4. Distribuciones estacionarias y teoremas l´ımite. ¿C´omo se comportar´a una cadena cuando haya pasado un largo per´ıodo de tiempo? Definici´on 3.12 El vector π = (πj)j2S es una distribuci´on estacionaria de la cadena si: 1. Es una distribuci´on de probabilidad, es decir: πi ≥ 0, X i2S πi = 1. 2. π = πP, i.e., πj = X i2S πipij ∀j ∈ S. Observaci´on: Se dice distribuci´on estacionaria, pues si iteramos se obtiene: πP2 = (πP)P = πP = π ⇒ . . . ⇒ πPn = π ∀n ≥ 0. Luego si X0 sigue la distribuci´on dada por π, se tiene que dicha distribuci´on no ser´a mo-dificada, es decir, ∀n, Xn tiene la misma distribuci´on. A continuaci´on enunciamos un teorema importante . Teorema 3.7 (Teorema fundamental de las cadenas de Markov) Una cadena de Markov tiene una distribuci´on estacionaria π si y s´olo si todos sus estados son persistentes no nulos; en cuyo caso, la distribuci´on π es ´unica y viene dada por πi = μ−1 i para cada i ∈ S, donde μi es el tiempo medio de recurrencia del estado i. Ejemplo: Sea P = 1/2 1/2 1/4 3/4 # πP = π ⇒ (π1, π2) = (π1, π2) 1/2 1/2 1/4 3/4 ! = 1 2 π1 + 1 4 π2, 1 2 π1 + 9 4 π2 ⇒ ⇒ ( π1 = 1 2π1 + 1 4π2 2π1 + 3 4π2 ⇒ π2 = 1   1 2π1 = 1 4π2 1 4π2 = 1 2π1 π1 + π2 = 1 ⇒ π1 = 1 3 π2 = 2 3 Nota 3.16 Observemos que: i. Si la cadena es transitoria o recurrente nula, como μj = ∞, entonces pij(n) n!1 −→ 0, ∀i, j ∈ S. 63
  • 28. ii. Si la cadena es persistente no nula, pij(n) n!1 −→ πj = μ−1 j . iii. P(Xn = j) = X i P(X0 = i)pij(n) n!1 −→ 1 μj . Notese que l´ım n!1 pij(n) no depende del punto inicial X0 = i. iv. Si X es peri´odica de periodo d, Y = {Yn = Xnd : n ≥ 0} es una cadena aperi´odica: pjj(nd) = P(Yn = j |Y0 = j) n!1 −→ d μj . Nota 3.17 Si X es irreducible y aperi´odica, el sistema siguiente tiene soluci´on ´unica.   π(j) = X i2S π(i)pij j ∈ S X j2S π(j) = 1 Adem´as, se tiene π(j) = l´ım n!1 Pn ij ∀i, j ∈ S Una cadena de Markov no tiene porque tener distribuci´on estacionaria, para que as´ı sea ha de ser una cadena irreducible y todos sus estados deben ser persistentes no nulos. Luego para estudiar el comportamiento l´ımite de una cadena cualquiera, hay que considerar cada una de sus clases Ci, ya que cada una va a tener un comportamiento l´ımite. Tambi´en la clase de estados transitorios T va tener su comportamiento; aunque acabe por desaparecer, nos interesa ver en cuanto tiempo. Por tanto, es fundamental para el estudio del comportamiento l´ımite la separaci´on de una cadena en estados persistentes y transitorios, pues es en la separaci´on donde est´a el comportamiento l´ımite. Se estudia cada una por separado, se hace π = πCi. La matriz l´ımite de Pn va a coincidir en cada fila con la distribuci´on estacionaria: P =   π π · · · π   si la cadena es irreducible. A continuaci´on vemos resultados sobre el comportamiento asint´otico de las cadenas de Markov con estados peri´odicos. 64
  • 29. Lema 3.2 Sea X una cadena de Markov irreducible con estados peri´odicos recurrentes de per´ıodo δ. Entonces, los estados se dividen en δ clases disjuntas B1,B2, . . . ,B (clases c´ıclicas), tales que pij = 0, a menos que: i ∈ B1 y j ∈ B2 ´o i ∈ B2 y j ∈ B3 ´o . . . ´o i ∈ B y j ∈ B1. Teorema 3.8 Sea P la matriz de transici´on de una de cadena de Markov con estados peri´odicos recurrentes de periodo δ, y sean B1, . . . ,B definidas en el lema anterior. En-tonces, en la cadena de Markov con matriz de transici´on P = P las clases B1, . . . ,B son cerradas e irreducibles de estados aperi´odicos. Del lema anterior se deduce que si i ∈ B entonces: P(Xm ∈ B
  • 30. |X0 = i) = Pi(Xm ∈ B
  • 31. ) = 1, β = α + m(mod δ). Teorema 3.9 Sean P y B como en el teorema anterior, y supongamos que la cadena no es nula. Entonces para alg´un m = {0, 1, . . . , δ − 1}, l´ımPn+m ij = ( π(j) si i ∈ B j ∈ B
  • 32. β = α + m(mod δ) 0 en otro caso Supongamos que tenemos una cadena finita. Veamos el procedimiento que vamos a seguir para calcular la matriz l´ımite de una cadena de Markov: 1. Identificar los conjuntos cerrados e irreducibles, es decir, las distintas clases de es-tados persistentes. 2. Los restantes son los transitorios. 3. Estudiar la periodicidad de cada clase cerrada por separado. Recordemos que la matriz despu´es de haber identificado cada clase y haber organizado las filas y columnas seg´un esa clasificaci´on, la matriz P toma la forma: P =   P1 0 · · · 0 0 0 P2 · · · 0 0 ... ... . . . ... ... 0 0 · · · Pm 0 D1 D2 · · · Dm Q   donde Pi son los estados persistentes y Di los transitorios. Aplicando los resultados anteriores tenemos la matrizbP donde las cajas Pi que tenemos en P se contraen a un n´umero que es la unidad, es decir, 65
  • 33. bP =   1 1 . . . 1 b1 b2 · · · bm Q   donde bj(i) = X k2Cj pik i ∈ D. As´ı, la matriz bP tiene la forma: bP = I 0 B Q ! Para continuar necesitamos calcular las matrices: F = [fij ]i,j2S R = [rij ]i,j2S donde R es lo que se conoce como matriz de potencial, siendo rij el n´umero medio de visitas a j partiendo de i. Por fij not´abamos la probabilidad de alcanzar el estado j, por primera vez, partiendo del i. Luego, rij = E[Nj |X0 = i] donde Nj representa el n´umero de visitas a j. Veamos como calcular R y F. C´alculo de R: R = (rij)i,j2S viene dada por los siguientes valores: Si j es recurrente, entonces: rij = ( 0 si fij = 0 ∞ si fij 0 Si j es transitorio e i es recurrente ⇒ rij = 0. Si j e i son transitorios, entonces: (rij)i,j2D = (I − Q)−1. C´alculo de F: Para calcular F = (fij)i,j2S, definimos la matriz G = (I − Q)−1B. Si i es transitorio y k es recurrente ⇒ fik = gij . 66
  • 34. Si i, j son transitorios tal que tienen rij ∞, entonces:   fjj = 1 − 1 rjj fij = rij rjj Si i, j son recurrentes de la misma clase ⇒ fij = 1. Si i es recurrente y j transitorio ´o recurrente de distinta clase ⇒ fij = 0. Una vez que hemos calculado R y F podemos calcular la matriz l´ımite P, que en realidad es el l´ımite de cada una de las entradas, pues cada clase recurrente Pk tiene su propio l´ımite. Cuando llamamos a P matriz l´ımite nos estamos refiriendo al comporta-miento l´ımite de todos los estados por separado, en conjunto no es realmente una matriz l´ımite (aunque por abuso del lenguaje la llamemos as´ı); luego podemos calcular la matriz l´ımite de cada clase cerrada, no de la matriz l´ımite en general. As´ı, dada una matriz Pk, su matriz l´ımite viene dada por π(k) = π(k)Pk donde X i πi(k) = 1. As´ı, llegamos a: P =   P1 P2 . . . P m D 1 D 2 · · · Dm 0   donde D k nos indica la probabilidad de ir de los estados transitorios a los estados re-currentes. Adem´as, si i ∈ D (i.e., i es un estado transitorio), en esas cajas se verifica que: l´ım n!1 pn ij = fijπj . Veamos ejemplos de como se lleva a la pr´actica: Ejemplo: Sea X una cadena de Markov donde S = {1, 2, . . . , 8}, y sea: P =   0.4 0.3 0.3 0 0 0 0 0 0 0.6 0.4 0 0 0 0 0 0.5 0.5 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0.8 0.2 0 0 0 0 0 0 0 0 0.4 0.6 0 0.4 0.4 0 0 0 0 0 0.2 0.1 0 0.3 0 0 0.6 0 0   67
  • 35. Se observa que, {1, 2, 3} {4, 5} clases de estados recurrentes, irreducibles y aperi´odicos. {6, 7, 8} clases de estados transitorios, s´olo pueden alcanzar los estados 1,2 y 3. Tenemos, bP =   1 0 0 0 0 0 1 0 0 0 0 0 0.4 0.6 0 0.8 0 0 0 0.2 0.4 0 0.6 0 0   y Q =   0.4 0.6 0 0 0 0.2 0.6 0 0   Entonces, (I − Q)−1 =   0.6 −0.6 0 0 1 −0.2 −0.6 0 1   −1 = 1 66   125 75 15 15 75 15 75 45 75   Luego la matriz potencial ser´a: R =   ∞ ∞ ∞ 0 0 0 0 0 ∞ ∞ ∞ 0 0 0 0 0 ∞ ∞ ∞ 0 0 0 0 0 0 0 0 ∞ ∞ 0 0 0 0 0 0 ∞ ∞ 0 0 0 ∞ ∞ ∞ 0 0 125 75 66 66 15 66 ∞ ∞ ∞ 0 0 15 66 75 66 15 66 ∞ ∞ ∞ 0 0 75 66 45 66 75 66   Por otro lado, G =   125 66 75 66 15 66 15 66 75 66 15 66 75 66 45 66 75 66   | {z } (I−Q)−1   0 0 0.8 0 0.4 0   | {z } B =   1 0 1 0 1 0   ahora la matriz F, ser´a F =   1 1 1 0 0 0 0 0 1 1 1 0 0 0 0 0 1 1 1 0 0 0 0 0 0 0 0 1 1 0 0 0 0 0 0 1 1 0 0 0 1 1 1 0 0 0.472 1 0.20 1 1 1 0 0 0.12 0.12 0.20 1 1 1 0 0 0.60 0.60 0.12   68
  • 36. Nota 3.18 En las cadenas markovianas todas las filas de la matriz del comportamiento l´ımite son iguales. Esto quiere decir que es independiente del estado inicial. La matriz l´ımite es de la forma, P =   π1 π2 π3 0 0 0 0 0 π1 π2 π3 0 0 0 0 0 π1 π2 π3 0 0 0 0 0 0 0 0 π4 π5 0 0 0 0 0 0 π4 π5 0 0 0 π1 π2 π3 0 0 0 0 0 π1 π2 π3 0 0 0 0 0 π1 π2 π3 0 0 0 0 0   donde las πi verifican los siguientes sistemas de ecuaciones:   (π1 π2 π3) = (π1 π2 π3)   0.4 0.3 0.3 0 0.6 0.4 0.5 0.5 0   π1 + π2 + π3 = 1   (π4 π5) = (π4 π5) 0 1 0.8 0.2 π4 + π5 = 1 Resolviendo los sistemas nos queda: P =   0.22 0.51 0.27 0 0 0 0 0 0.22 0.51 0.27 0 0 0 0 0 0.22 0.51 0.27 0 0 0 0 0 0 0 0 0.4 0.6 0 0 0 0 0 0 0.4 0.6 0 0 0 0.22 0.51 0.27 0 0 0 0 0 0.22 0.51 0.27 0 0 0 0 0 0.22 0.51 0.27 0 0 0 0 0   Ejemplo: Sea X una cadena de Markov donde S = {1, 2, . . . , 7}, y sea: P =   0.2 0.8 0 0 0 0 0 0.7 0.3 0 0 0 0 0 0 0 0.3 0.5 0.2 0 0 0 0 0.6 0 0.4 0 0 0 0 0 0.4 0.6 0 0 0 0.1 0.1 0.2 0.2 0.3 0.1 0.1 0.1 0.1 0 0.1 0.2 0.4   69
  • 37. Se observa que, {1, 2} {3, 4, 5} clases de estados recurrentes. {6, 7} clases de estados transitorios. En este caso, tenemos que bP =   1 0 0 0 0 1 0 0 0.1 0.5 0.3 0.1 0.2 0.2 0.2 0.4   ⇒ B 0.1 0.5 0.2 0.2 Por otro lado, (I − Q)−1 = 0.7 −0.1 −0.2 0.6 −1 = 1 0.4 0.6 0.1 0.2 0.7 = 1.5 0.25 0.5 1.75 Luego, G = (I − Q)−1B = 1.5 0.25 0.5 1.75 0.1 0.5 0.2 0.2 = 0.2 0.8 0.4 0.6 Con esto, ya podemos obtener R y F: R =   ∞ ∞ 0 0 0 0 0 ∞ ∞ 0 0 0 0 0 0 0 ∞ ∞ ∞ 0 0 0 0 ∞ ∞ ∞ 0 0 0 0 ∞ ∞ ∞ 0 0 ∞ ∞ ∞ ∞ ∞ 1.5 0.25 ∞ ∞ ∞ ∞ ∞ 0.5 1.75   , F =   1 1 0 0 0 0 0 1 1 0 0 0 0 0 0 0 1 1 1 0 0 0 0 1 1 1 0 0 0 0 1 1 1 0 0 0.2 0.2 0.8 0.8 0.8 0.3 0.14 0.4 0.4 0.6 0.6 0.6 0.3 0.43   En este caso, los sistemas de ecuaciones son:   (π1 π2) = (π1 π2) 0.2 0.8 0.7 0.3 π1 + π2 = 1   (π3 π4 π5) = (π3 π4 π5)   0.3 0.5 0.2 0.6 0 0.4 0 0.4 0.6   π3 + π4 + π5 = 1 70
  • 38. Resolviendo los sistemas podremos escribir P: π1 = 0.47 = 7 15 π2 = 0.53 = 8 15 π3 = 0.26 = 6 23 π4 = 0.30 = 7 23 π5 = 0.43 = 10 23 ⇒ P =   7 15 8 15 0 0 0 0 0 7 15 8 15 0 0 0 0 0 0 0 6 23 7 23 10 23 0 0 0 0 6 23 7 23 10 23 0 0 0 0 6 23 7 23 10 23 0 0 1.4 15 1.6 15 4.8 23 5.6 23 8 23 0 0 2.8 15 3.2 15 3.6 23 4.2 23 6 23 0 0   Ejemplo: Sea X una cadena de Markov donde S = {1, 2, . . . , 7}, y sea: P =   0.5 0.5 0 0 0 0 0 0.8 0.2 0 0 0 0 0 0 0 0 0.4 0.6 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0.1 0 0.2 0.2 0.1 0.3 0.1 0.1 0.1 0.1 0 0.1 0.2 0.4   Al igual que en el ejemplo anterior, se tiene {1, 2} {3, 4, 5}periodo2 clases de estados recurrentes. {6, 7} clases de estados transitorios. En este caso, la matriz bP es la misma que la del ejemplo anterior. bP =   1 0 0 0 0 1 0 0 0.1 0.5 0.3 0.1 0.2 0.2 0.2 0.4   Luego B y Q son las mismas que antes, lo que implica que G tambi´en coincida con la del ejemplo anterior. En este caso, tenemos: R =   ∞ ∞ 0 0 0 0 0 ∞ ∞ 0 0 0 0 0 0 0 ∞ ∞ ∞ 0 0 0 0 ∞ ∞ ∞ 0 0 0 0 ∞ ∞ ∞ 0 0 ∞ ∞ ∞ ∞ ∞ 1.5 0.25 ∞ ∞ ∞ ∞ ∞ 0.5 1.75   , F =   1 1 0 0 0 0 0 1 1 0 0 0 0 0 0 0 1 1 1 0 0 0 0 1 1 1 0 0 0 0 1 1 1 0 0 0.2 0.2 0.8 0.8 0.8 0.3 0.1 0.4 0.4 0.6 0.6 0.6 0.3 0.4   71
  • 39. En este caso, los sistemas de ecuaciones quedan:   (π1 π2) = (π1 π2) 0.5 0.5 0.8 0.2 π1 + π2 = 1   (π3 π4 π5) = (π3 π4 π5)   0 0.4 0.6 1 0 0 1 0 0   π3 + π4 + π5 = 2 Resolvemos los sistemas para obtener P: π1 = 8/13 π2 = 5/13 π3 = 1 π4 = 0.4 π5 = 0.6 ⇒ P 1 =   8/13 5/13 0 0 0 0 0 8/13 5/13 0 0 0 0 0 0 0 0 0.4 0.6 0 0 0 0 1 0 0 0 0 0 0 1 0 0 0 0 0.12 0.08 0.4 0.16 0.24 0 0 0.24 0.16 0.3 0.12 0.18 0 0   y P 2 =   8/13 5/13 0 0 0 0 0 8/13 5/13 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0 0.4 0.6 0 0 0 0 0 0.4 0.6 0 0 0.12 0.08 0.4 0.16 0.24 0 0 0.24 0.16 0.3 0.12 0.18 0 0   Cuando la cadena es infinita es m´as costoso identificar los estados, pues debemos resolver un sistema infinito. Adem´as, puede darse el caso de que haya estados transitorios, recu-rrentes no nulos y recurrentes nulos (en las cadenas finitas no puede haber recurrentes nulos). En las cadenas infinitas hay que empezar identificando si hay estados no nulos dadas las clases cerradas. Para ello, tenemos el siguiente teorema: Teorema 3.10 Dada una cadena de Markov irreducible, consideramos el sistema:   π(j) = X i2S π(i)pij j ∈ S X j2S π(j) = 1 72
  • 40. Todos los estados ser´an recurrentes no nulos si y s´olo si existe soluci´on ´unica de este sistema. Si el sistema anterior no tuviese soluci´on, tenemos el siguiente teorema: Teorema 3.11 Sea P la matriz de transici´on asociada a la cadena de Markov que estamos estudiando, y sea Q la matriz obtenida de P al suprimir la fila y la columna k−´esima (k ∈ S cualquiera). Entonces, los estados son recurrentes nulos si y s´olo si el sistema que la matriz Q produce tiene soluci´on trivial, es decir, si el sistema tiene precisamente la soluci´on trivial. O sea, h(i) = X j2S{k} qijh(j) 0 ≤ h(i) ≤ 1; i ∈ S {k}   =⇒ h(i) = 0. Nota 3.19 Si existe soluci´on no trivial del sistema, los estados ser´an transitorios. Ejemplo: Estudiar el comportamiento de los estados de los recorridos aleatorios dados por la matriz de transici´on P =   q p 0 0 0 · · · q 0 p 0 0 · · · 0 q 0 p 0 · · · 0 0 q 0 p · · · · · · · · · · · · · · · · · · · · ·   en funci´on del valor p. Determinar las distribuciones l´ımite. En P, vemos que todos los estados se comunican entre s´ı, forman una sola clase. Resolvemos el sistema π = πP: π0 = π0q + π1q π1 = π0p + π2q π2 = π1p + π3q ... Esto es un sistema infinito. Para resolverlo tomamos π0 = 1 (ya que el sistema es ho-mog ´eneo y, por tanto, tenemos un grado de libertad) y despejamos el resto de las πi: π1 = p q π2 = p2 q2 ... 73
  • 41. As´ı, queda: π = c, c p q , c p2 q2 , . . . (Tomamos π0 = c en lugar de π0 = 1, para tener todas las soluciones posibles). Luego hemos resuelto el sistema, pero esa soluci´on no es buena para cualquier p, q. Ha de X1 ser p q para que el sistema tenga soluci´on, pues al normalizar, la serie i=0 p q i · c ha de ser convergente y, como es una serie geom´etrica de raz´on p q , para que sea convergente ha de ser p q. Por tanto, si p q todos los estados son recurrentes no nulos, y la soluci´on del sistema ser´ıa: πj = 1 − p q p q j , j = 0, 1, 2, . . . pues ´esta es la soluci´on que hace que X j πj = 1: c X1 k=0 p q k = 1 ⇒ c 1 1 − p q = 1 ⇒ c = 1 − p q . La matriz l´ımite es una matriz infinita. Por otro lado, nos va a salir: Si p = q ⇒ todos los estados son recurrentes nulos. Si p q ⇒ todos los estados son transitorios. Para obtener esta soluci´on, le quitamos a P la 1a fila y la 1a columna, por ejemplo, y obtenemos as´ı Q. Despu´es, volvemos a plantear el sistema anterior para ver si tiene o no soluci´on. Estudiamos entonces el sistema h = Qh: Q =   0 p 0 0 · · · q 0 p 0 · · · 0 q 0 p · · · · · · · · · · · · · · · · · ·   ⇒ h1 = ph2 h2 = qh1 + ph3 h3 = qh2 + ph4 ... Haciendo manipulaciones algebraicas obtenemos: hi = c 1 + q p + · · · + q p i−1 # , i = 1, 2, . . . 74
  • 42. Con esto: Si p = q ⇒ hi = c · i 0 hi 1 | {z } =⇒ c = 0 ⇒ todos los estados son recurrentes nulos. Si p q ⇒ hi = 1 − q p i ⇒ todos los estados son transitorios. 75
  • 43. 3.5. Tablas Resumen. 3.5.1. Clasificaci´on de los procesos de Markov. Los procesos de Markov se dividen en cuatro tipos b´asicos seg´un sea el par´ametro y el espacio de estados. P´arametro T DISCRETO CONTINUO D I Cadenas Cadenas S de de C Markov Markov R de de E Par´ametro Par´ametro Espacio T Discreto Continuo de O Estados C Procesos Procesos S O de de N Markov Markov T de de I Par´ametro Par´ametro N Discreto Continuo U (Ej. Series (Ej. Difusi´on) O Temporales) 3.5.2. M´etodos para calcular las probabilidades de primer paso. k RECURRENTE NO RECURRENTE j RECURRENTE fjk = 1 si j ↔ k 0 e.c.c. fjk = 0 NO RECURRENTE fjk = X i2T pjifik + X i2C pji fjk = X n pjk(n) X n pkk(n) 76
  • 44. 3.5.3. Clasificaci´on de una cadena de Markov irreducible. NO RECURRENTE RECURRENTE RECURRENTE NULA (*) RECURRENTE POSITIVA APERIODICA (PERIODO=1) PERIODICA (PERIODO1) POSEE DISTRIBUCION DE LARGA DURACION POSEE DISTRIBUCION ESTACIONARIA (*) Propiedad que solo puede poseer una cadena infinita. 77
  • 45. 3.6. Ejercicios. Ejercicio 3.1. Sea (Xn) una cadena de Markov y sea un conjunto {nr : r ≥ 0} de n´umeros enteros ordenados en orden creciente. Demostrar que Yr = Xnr constituye una cadena de Markov. Encontrar la matriz de transici´on de (Yr) cuando nr = 2r y (Xn) es: 1. Un camino aleatorio simple. 2. Un proceso de ramificaci´on. Ejercicio 3.2. Sea Xn la m´axima puntuaci´on obtenida en las primeras n tiradas de un dado. Demostrar que (Xn) es una cadena de Markov y encontrar su matriz de transici´on de probabilidades. Ejercicio 3.3. Consideramos la secuencia aleatoria de pol´ıgonos convexos generada de la siguiente manera: Tomamos dos lados del pol´ıgono inicial, trazamos un segmento que unan sus puntos medios y obtenemos dos nuevos pol´ıgonos. Cogemos aleatoriamente uno de ellos para ser el pr´oximo en la secuencia y as´ı sucesivamente. Sea Xn+3 el n´umero de lados del n-´esimo pol´ıgono de la secuencia as´ı construida. 1. Encontrar E[Xn] en t´erminos de X0. 2. Encontrar la distribuci´on estacionaria de la cadena de Markov (Xn). Nota: El n´umero de lados es Xn+3 para garantizar que el pol´ıgono inicial sea al menos un tri´angulo. Ejercicio 3.4 Sea {Sn : n ≥ 0} una caminata al azar con S0 = 0. 1. Demostrar que Xn = |Sn| es una cadena de Markov. Encontrar la matriz de transi-ci ´on de probabilidad de la cadena. 2. Sea Mn = max{Sk : 0 ≤ k ≤ n}, demostrar que Yn = Mn − Sn es otra cadena de Markov. Ejercicio 3.5. La copia de un libro es le´ıda por una secuencia infinita de editores detectando errores. Cada error es detectado con una probabilidad p en cada lectura. Entre las distintas lecturas el corrector detecta errores pero introduce un n´umero aleatorio de errores nuevos (los errores pueden ser introducido incluso si no detecta ning´un error). Teniendo en cuenta, que el n´umero de errores son diferentes en cada lectura del corrector pero id´enticamente distribuidos: Buscar una expresi´on para la funci´on generatriz de probabilidad de la distribuci´on esta-cionaria Xn donde Xn: n´umero de errores despu´es de la n-´esima lectura del corrector. Buscar una expresi´on para la funci´on generatriz de probabilidad expl´ıcita cuando el co-rrector introduce un n´umero de errores en cada lectura regida por una distribuci´on de Poisson. 78
  • 46. Ejercicio 3.6. Una part´ıcula recorre un camino aleatorio sobre los v´ertices de un grafo G conexo, el cual para simplificar suponemos que no tiene bucles. En cada etapa la part´ıcula se mueve de un v´ertice a otro de los adyacentes, teniendo cada punto igual probabilidad de ser elegido. Si G tiene η( +∞) aristas, mostrar que la distribuci´on estacionaria est´a dada por v = dv 2 donde dv es el grado del v´ertice. Ejercicio 3.7. Mostrar que un camino aleatorio sobre un ´arbol binario infinito com-pleto es una cadena de Markov de estados transitorios. Ejercicio 3.8. Una part´ıcula realiza una caminata al azar sobre los v´ertices de un cubo.En cada etapa permanece en el v´ertice en que se encuentra con una probabilidad 1 4 y se desplaza a sus vecinos con la misma probabilidad. Sean v,w dos v´ertices diametralmente opuestos y supongamos que la caminata comienza en v. Hallar: 1. El n´umero medio de etapas hasta la primera visita a v. 2. El n´umero medio de etapas hasta la primera visita a w. Ejercicio 3.9. Sea la siguiente figura: A B C D E Comenzamos en el v´ertice (A). Nos piden: 1. El tiempo de primer paso por A partiendo de A (tiempo medio de recurrencia). 2. N´umeros de visitas a D antes de llegar a A sabiendo que partimos de A 3. N´umeros de visitas a C antes de llegar a A sabiendo que partimos de A 4. Tiempo de primer paso por A sabiendo que parte de A sin que pase por E 5. N´umeros de visitas a D antes de llegar a A sabiendo que partimos de A,sin pasar por E Ejercicio 3.10. Sea Xn la cantidad de agua que hay en un embalse el d´ıa n sobre el mediodia.Ddurante las 24 horas anteriores al d´ıa n el embalse recibe agua que cuantifi-caremos en la variable Yn, justamente antes de cada mediod´ıa la presa arroja 1 unidad de agua (si hay tal cantidad).La capacidad m´axima del embalse es k, y si la presa recibe 79
  • 47. excesiva cantidad este agua se desborda y se pierde. Suponemos que las Yn son indepen-dientes e id´enticamente distribuidas y que todos los numeros de valoraci´on son enteros no negativos. (1)Demostrar que {Xn : n 0} es una cadena de Markov. (2)Hallar la matriz de transici´on de {Xn : n ≥ 1} (3)Encontrar una expresi´on de la distribuci´on estacionaria en t´erminos de la funci´on generatriz de probabilidad de Yn (4)Calcular cuando Gy(s) = p(1 − qs)−1 Ejercicio 3.11. Clasificar los estados de las cadenas de Markov, con matrices de transici´on siguientes: (a) P =   1 − 2p 2p 0 p 1 − 2p p 0 p 1 − p   (b) P =   0 p 0 1 − p 1 − p 0 p 0 0 1 − p 0 p p 0 1 − p 0   Calcular en cada caso el comportamiento l´ımite. Ejercicio 3.11 Clasificar los estados de las cadenas de Markov, con matrices de transici´on siguientes: (a) P =   1 − 2p 2p 0 p 1 − 2p p 0 p 1 − p   (b) P =   0 p 0 1 − p 1 − p 0 p 0 0 1 − p 0 p p 0 1 − p 0   Adem´as, calcular en cada caso el comportamiento l´ımite. Ejercicio 3.12. Clasificar los estados de la Cadena de Markov dada por la siguiente matriz de paso: 80
  • 48. P ≡   0 0 0.4 0.6 0 0 0.2 0 0.5 0.3 0.5 0 0.5 0 0 0 0 1 0 0 0.3 0 0.5 0 0.2   Ejercicio 3.13. Clasificar los estados de la cadena de Markov dada por la matriz adjunta, as´ı como su matriz l´ımite.   a b c d e f g a 0.8 0 0 0 0 0.2 0 b 0 0 0 0 1 0 0 c 0.1 0 0.9 0 0 0 0 d 0 0 0 0.5 0 0 0.5 e 0 0.3 0 0 0.7 0 0 f 0 0 1 0 0 0 0 g 0 0.5 0 0 0 0.5 0   Ejercicio 3.14. Sea X una cadena deMarkov con espacio de estados E={1,2,3,4,5,6,7,8} y matriz de transici´on: P =   0.4 0.3 0.3 0 0 0 0 0 0 0.6 0.4 0 0 0 0 0 0.5 0.5 0 0 0 0 0 0 0 0 0 0 1 0 0 0 0 0 0 0.8 0.2 0 0 0 0 0 0 0 0 0.4 0.6 0 0.4 0.4 0 0 0 0 0 0.2 0.1 0 0.3 0 0 0.6 0 0   clasificar los estados y determinar la matriz l´ımite. Ejercicio 3.15. Clasificar los estados de la cadena de Markov dada por la siguiente matriz de transici´on, as´ı como determinar la matriz limite. c) 1 2 3 4 5 1 0.5 0 0 0.5 0 2 0 0.6 0 0 0.4 3 0.3 0 0.7 0 0 4 0 0 1 0 0 5 0 1 0 0 0 Ejercicio 3.16. Clasificar los estados de la cadena de Markov con la siguiente matriz de transici´on, y su comportamiento l´ımite : 81
  • 49. P =   0.8 0 0.2 0 0 0 1 0 1 0 0 0 0.3 0.4 0 0.3   Ejercicio 3.17. Estudiar las cadenas de Markov dadas por las matrices de transici´on: P =   p0 p1 p2 p3 · · p0 p1 p2 p3 · · 0 p0 p1 p2 · · 0 0 p0 p2 · · · · · · · · · · · · · ·   Q =   h0 g0 0 0 0 · h1 g1 g0 0 0 · h2 g2 g1 g0 0 · h3 g3 g2 g1 g0 · · · · · · · · · · · · ·   Determinar el comportamiento de los estados a trav´es de las funciones generatrices de las sucesiones {pi} y {gj}, respectivamente. Ejercicio 3.18. Estudiar el comportamiento de los estados de los recorridos aleatorios dados por las matrices de transici´on: P1 =   q p 0 0 0 · q 0 p 0 0 · 0 q 0 p 0 · 0 0 q 0 p · · · · · · · · · · · · ·   , P2 =   0 1 0 0 0 · q 0 p 0 0 · 0 q 0 p 0 · 0 0 q 0 p · · · · · · · · · · · · ·   en funci´on del valor de p. Determinar las distribuciones l´ımite. Ejercicio 3.19. El n´umero de d´ıas que transcurren hasta que se recibe una petici´on para la suit presidencial de un hotel, es una v.a. G(p). Cada cliente que realiza la petici´on de la suit por un n´umero de d´ıas que es una v.a. discreta X. 1. Calcular la fracci´on de tiempo que la suit est´a ocupada. 2. Calcular el beneficio para el hotel, si la estancia de X d´ıas produce un beneficio cX + k, y un coste D. 82