Sei sulla pagina 1di 89

Universidad del Pa´ıs Vasco Matem´atica Aplicada y Estad´ıstica

Matrices no negativas, paseos aleatorios y cadenas de Markov

Juan-Miguel Gracia

Extracto: Damos algunas definiciones de digrafo, cadena de Markov, paseo aleatorio, as´ı como su re- laci´on con la teor´ıa de Perron-Frobenius de matri- ces no negativas. Contiene programas en Matlab.

Copyright 2008

Actualizado el:

noviembre de 2002

28 de noviembre de 2008 (enlaces revisados)

final, 11 de

Version

Tabla de Contenido

1. Digrafos

1.1. Subdigrafo

1.2. Paseo

1.3. Digrafo fuertemente conexo

1.4. Digrafo ponderado

1.5. Isomorfismo de digrafos

1.6. Paseo aleatorio

2. Potencias de una matriz

3. Matrices no negativas

3.1. Forma normal de una matriz reducible

3.2. Teoremas de Perron y Frobenius

3.3. Matrices reducibles

3.4. Matrices primitivas

3.5. Matrices estoc´asticas

4. Cadenas de Markov discretas

4.1. Estados recurrentes, transitorios y absorbentes

Periodicidad

4.2. Cadenas de Markov reducibles

4.3. Cadenas de Markov cualesquiera

Tabla de Contenido (cont.)

3

6. Matlab Forma normal de una matriz reducible en Matlab Forma de Frobenius en Matlab Relaciones binarias en Matlab

7. Soluciones

8. Acreditaciones 8.1. Agradecimientos

Toc

Volver

Doc

Doc

4

1. Digrafos

La terminolog´ıa sobre grafos no est´a estandarizada y var´ıa m´as de lo que ser´ıa de desear de unos autores a otros. Hasta donde llega nuestra experiencia sobre este tema, nos induce a leer con cuidado las definiciones

de cada autor. En la literatura, muchos conceptos no son siquiera definidos

y

se debe apelar a su significado intuitivo. Nuestras definiciones persiguen

la

claridad formal, conscientes del sacrificio intuitivo del tema; ´este aspecto

lo fiamos a las figuras que insertamos. Un digrafo (grafo dirigido u orientado) D es un par (V, E) donde

V es un conjunto finito de elementos llamados v´ertices (puntos o nodos)

y E es un subconjunto de V × V . Todo par ordenado (a, b) E se llama

arco del digrafo D. N´otese que un digrafo puede contener tanto los arcos (a, b) y (b, a) con a y b v´ertices distintos como arcos de la forma (a, a); ´estos ultimos´ arcos se denominan lazos . Los v´ertices a y b de un arco α = (a, b) se llaman extremos del arco α. Adem´as, a es el v´ertice inicial u origen y b es el v´ertice final de α. Se dice que el arco (a, b) es incidente con los v´ertices a y b. El n´umero de arcos que salen de un v´ertice es el grado saliente del v´ertice. El n´umero de arcos que entran en un v´ertice es el grado entrante

del v´ertice. Convenimos que un lazo en un v´ertice aporta una unidad al grado saliente y tambi´en una unidad al grado entrante. Se dice que el arco (a, b) es incidente con los v´ertices a y b.

Toc

Volver

Doc

Doc

Secci´on 1: Digrafos

5

1.1. Subdigrafo

Un subdigrafo del digrafo D = (V, E) es un digrafo D 1 = (V 1 , E 1 ) tal que V 1 V y E 1 E. Se dice que el subdigrafo D 1 es un subdigrafo generador de D si D 1 tiene el mismo conjunto de v´ertices que D, es decir, si V 1 = V .

1.2. Paseo

Un paseo de D es una secuencia finita de v´ertices w = (v 0 , v 1 ,

, v p ) tal

, p y p > 0. El n´umero p es la longitud

que (v i1 , v i ) E para i = 1, 2,

del paseo w. Este n´umero coincide con el n´umero de arcos

(v 0 , v 1 ), (v 1 , v 2 ),

, (v p1 , v p )

del paseo w; contando los arcos cuantas veces se pase por ellos para ir desde el v´ertice v 0 al v´ertice v p .

Toc

Volver

Doc

Doc

Secci´on 1: Digrafos

6

Ejemplo 1.1 Consideremos el digrafo D representado por la Figura 1.

1 2 3 4 5 6
1
2
3
4
5
6

Figura 1: Digrafo D.

Aqu´ı D

E = {(1, 2), (2, 1), (2, 2), (2, 3), (3, 5), (3, 6), (4, 2), (4, 4), (5, 2), (6, 3)}.

El paseo w 1 = (1, 2, 3, 6) tiene longitud 3 y w 2 = (1, 2, 2, 1, 2) es un paseo de longitud 4.

, v p ) que tiene todos los

= (V, E) con V = {1, 2, 3, 4, 5, 6} y

Un camino de D es un paseo w = (v 0 , v 1 ,

v´ertices

distintos. Un ciclo

de D es un paseo w = (v 0 , v 1 ,

, v p ) con

los

v´ertices

v 0 , v 1 ,

, v p1 distintos y v 0 = v p . En particular, los lazos (a, a)

Toc

Volver

Doc

Doc

Secci´on 1: Digrafos

7

son ciclos. Tenemos la clasificaci´on siguiente de los paseos:

paseos

caminos,

ciclos,

paseos

w = (v 0 , v 1 ,

,

v p )

con repeticiones en v 0 , v 1 ,

,

v p1 y/o en v 1 ,

, v p1 , v p .

Un digrafo se llama ac´ıclico si no tiene ciclos. En el digrafo anterior

el paseo C = (2, 3, 5, 2) es un ciclo (Figura 2) y el paseo P

es un camino (Figura 3) . El n´umero de v´ertices distintos de un camino

P o de un ciclo C ser´a denotado por |P | o |C|, respectivamente. As´ı, en

+ 1

, |C| = longitud de C. La notaci´on |X| indica el cardinal de un conjunto finito X. Aqu´ı se comete un ligero abuso de notaci´on pues P y C no son

el ejemplo ultimo,´

= (1, 2, 3, 5)

|P | = 4 y |C| = 3. Tambi´en |P | = longitud de P

conjuntos.

1.3. Digrafo fuertemente conexo

Un digrafo D = (V, E) se llama fuertemente conexo si para cualquier

par (i, j) V × V , con i

conecta i con j. Obs´ervese que los v´ertices i y j pueden estar conectados por un paseo mientras que j e i no estarlo.

, v p = j) que

= j, existe un paseo (i = v 0 , v 1 ,

Toc

Volver

Doc

Doc

Secci´on 1: Digrafos

8

3

2

5

Figura 2: Ciclo C = (2, 3, 5, 2).

1 2 3 5
1
2
3
5

Figura 3: Camino P = (1, 2, 3, 5).

Ejercicio 1.1

Comprobar que el digrafo de la Figura 4 es fuertemente

conexo.

Toc

Volver

Doc

Doc

Secci´on 1: Digrafos

1 2 3
1
2
3

9

Figura 4: Digrafo fuertemente conexo.

1.4. Digrafo ponderado

Un digrafo ponderado es una terna (V, E, p) en la que D = (V, E) es un digrafo y p : E R es una aplicaci´on de E en un anillo conmutativo R, que asocia a cada arco (α, β) E su peso p((α, β)).

1.5. Isomorfismo de digrafos

Sean los digrafos D i = (V i , E i ), i = 1, 2. Se llama isomorfismo de los digrafos D 1 y D 2 a toda aplicaci´on biyectiva ϕ : V 1 V 2 que satisface la condici´on

(i, j) E 1 ⇐⇒ (ϕ(i), ϕ(j)) E 2 .

Toc

Volver

Doc

Doc

Secci´on 1: Digrafos

10

Ejemplo 1.2 Sean D 1 = (V 1 , E 1 ) y D 2 = (V 2 , E 2 ) los digrafos dados por

la Figura 5. Si definimos la aplicaci´on ϕ : {1, 2, 3} → {a, b, c} dada por

ϕ(2) = c,

se tiene que

(1, 3) E 1 ⇐⇒ (ϕ(1), ϕ(3)) = (b, a) E 2 ,

(3, 1) E 1 ⇐⇒ (ϕ(3), ϕ(1)) = (a, b) E 2 ,

(3, 2) E 1 ⇐⇒ (ϕ(3), ϕ(2)) = (a, c) E 2 .

Por tanto, ϕ es un isomorfismo.

ϕ(1) = b,

ϕ(3) = a,

1 2 a b 3 c (a) D 1 . (b) D 2 .
1
2
a
b
3
c
(a) D 1 .
(b) D 2 .

Figura 5: Digrafos isomorfos.

Si los digrafos son ponderados en el mismo anillo R, digamos (V 1 , E 1 , p)

y (V 2 , E 2 , q), un isomorfismo entre ellos es una aplicaci´on biyectiva ϕ

Toc

Volver

Doc

Doc

Secci´on 1: Digrafos

11

entre los conjuntos de v´ertices que conserva no solo los arcos, sino tambi´en su peso respectivo; i.e.

para todo (i, j) E 1 ,

p((i, j)) = q(ϕ(i), ϕ(j)).

1.6. Paseo aleatorio

Sea ahora G = (V, E, p) un digrafo ponderado donde p : E R asocia

al arco (i, j) un peso p (i, j) = p ij > 0, y tal que para todo v´ertice i se tenga que la suma de los pesos de los arcos que salen de i sea igual a 1. Si

, (i, j k i ) a todos estos arcos, esta condici´on

denotamos por (i, j 1 ), (i, j 2 ), se rescribe as´ı

k i

s=1

p ij s = 1.

Para cada i V , supongamos que el intervalo (0, 1] es partido en los subin- tervalos disjuntos dos a dos

(a i0 , a i1 ], (a i1 , a i2 ], donde a is := p ij 1 + ··· + p ij s , s = 1, 2,

Un paseo aleatorio por un digrafo ponderado G = (V, E, p) es un proceso aleatorio indefinido en cuyas etapas un caminante situado en el v´ertice i elige un n´umero al azar x con distribuci´on uniforme en el intervalo (0,1] y salta al v´ertice j s si

, (a ik i 1 , a ik i ], , k i , y a i0 := 0.

Toc

x (a is1 , a is ],

s ∈ {1, 2,

,

k i }.

Volver

Doc

Doc

Secci´on 1: Digrafos

12

All´ı vuelve a repetir el procedimiento de elegir un nuevo v´ertice al que saltar. Puede ocurrir que p ii = 1, en cuyo caso suponemos que el caminante salta todo el rato de i a i. Si al comienzo del paseo o en un momento dado, el caminante est´a situado en un v´ertice sin arcos salientes, o en v´ertice i tal que p ii = 1, se supone que se queda all´ı absorbido.

Toc

Volver

Doc

Doc

13

2. Potencias de una matriz

Dada A C n×n consideremos algunos resultados importantes sobre el comportamiento asint´otico de la sucesi´on de potencias de A: A k , k =

0, 1, 2,

dad algebraica de λ coincide con su multiplicidad geom´etrica: m(λ, A) = mg(λ, A). Por tanto, un valor propio simple es semisimple, pero no al rev´es. Tambi´en, el decir que un valor propio λ es semisimple es equivalente a decir

Un valor propio λ de A se llama semisimple si la multiplici-

que su ´ındice, ν(λ), es igual a 1. Se llama radio espectral de una matriz A C n×n al m´aximo de los valores absolutos de sus valores propios; se denota por (A).

El l´ımite l´ım k A k existe si y s´olo si (i) (A) < 1, o bien (ii)

(A) = 1, 1 es el unico´ semisimple.

valor propio de A de m´odulo uno, y 1 es

Cuando existe, l´ım k A k es el proyector sobre Ker(I A) a lo largo de Im(I A). Adem´as, l´ım k A k = 0 si y s´olo si (A) < 1. Cuando existe l´ım k A k , se dice que A es una matriz convergente.

a G si

Se dice que A es sumable Ces`aro ( o meramente sumable) existe el l´ımite

l´ım

k→∞

I + A + A 2 + ··· + A k1

k

= G.

La matriz A C n×n es sumable Ces`aro si y s´olo si (A) < 1 o bien (A) = 1 con todos los valores de m´odulo uno semisimples.

Toc

Volver

Doc

Doc

Secci´on 2: Potencias de una matriz

14

Cuando existe, el l´ımite Ces`aro

I + A + A 2 + ··· + A k1

l´ım

k→∞

= G

k

es el proyector sobre Ker(I A) a lo largo de Im(I A). Si A es convergente a G, entonces A sumable a G, pero no rec´ıprocamente. Las demostraciones de estos resultados son consecuencia de la forma de las potencias de una matriz en forma can´onica de Jordan; el detalle puede consultarse en [5, p. 630, 633].

Toc

Volver

Doc

Doc

15

3. Matrices no negativas

Una matriz A = (a ij ) R m×n se dice no negativa si todos sus elementos son 0. Si todos los elementos de A son positivos (i.e > 0), entonces A se llama positiva. Si m o n son iguales a 1, hablaremos de vectores no negativos, resp. positivos. Denotamos por A 0 (resp. A > 0) cuando para

todo par (i, j) se tiene que a ij 0 (resp. a ij > 0). N´otese que A 0 y

A

La duplicaci´on de terminolog´ıa con las matrices (herm´ıticas) definidas no negativas y definidas positivas es desafortunada. Sin embargo, no hay peligro de confusi´on pues raramente se mezclan ambos conceptos con los de matriz no negativa y matriz positiva. Adem´as, es de esperar que el lector est´e suficientemente atento al contexto para evitarlo. Los notables teoremas de Perron y Frobenius constituyen el resultado central de la teor´ıa de las matrices no negativas, y ser´an enunciados en los Teoremas 3.3, 3.4 y 3.5.

Sea A = (a ij ) C n×n , se llama digrafo asociado a la matriz A al digrafo

D(A) = (V, E, a) cuyo conjunto de v´ertices es V = {1, 2,

(i, j) E siempre que a ij = 0 y de peso a ij . Por ejemplo, si

, n} y con arcos

= 0 no implican A > 0.

Toc

A =

2

3

0

0

0

5

0

0

0

2

8

5

4 ,

0

0

1

Volver

Doc

Doc

Secci´on 3: Matrices no negativas

16

entonces su digrafo D(A) viene dado por la Figura 6.

5 −8 5 −3 2 1 2 3 4 −4 2 1
5 −8
5
−3
2
1
2
3
4
−4
2
1

Figura 6: Digrafo D.

, n}. Sea M (σ) := (δ i,σ(j) ) la matriz

asociada a la permutaci´on σ, donde δ ik son las deltas de Kronecker;

M (σ) es una matriz de ceros y unos con un solo 1 en cada fila y columna;

es decir, M (σ) es una matriz de permutaci´on. Si permutamos las columnas de A = (a ij ) de acuerdo con la permutaci´on σ y despu´es permutamos las filas de la matriz resultante de la misma manera, obtenemos una matriz

B = (b ij ), cuyos elementos b ij vienen dados en funci´on de los elementos de

A por la expresi´on

b ij = a σ(i)(j) .

Adem´as,

B = M(σ) T AM (σ).

Tambi´en nos interesar se˜nalar que los digrafos asociados a las matrices A y

B son isomorfos; siendo el isomorfismo precisamente la permutaci´on

Sea σ una permutaci´on de {1, 2,

Toc

σ: {1, 2,

, n} → {1, 2,

, n}.

Volver

Doc

Doc

Secci´on 3: Matrices no negativas

17

Ejemplo 3.1 Sea la matriz

A =

0

0

a 31

0

0

a 32

a 13

0 ,

0

su digrafo asociado aparece en la parte (a) de la Figura 7. Si consideramos la permutaci´on

de {1, 2, 3}, se tiene que

0

0

1

1

0

0

0

0

1

0

0

a 31

σ =

1

2

2

3

3

1

B = M(σ) T AM (σ) =

0

0

a 32

a 13 0 0

0

1

0

0

1

0

0 =

0

1

0

a 32

0

0

0

a 13

0

a 31

0

.

El digrafo de B aparece en la parte (b) de la Figura 7. La matriz A C n×n se llama reducible si existe una matriz de per- mutaci´on P de orden n tal que

Toc

P

T AP = A 11

0

A A 22 ,

12

Volver

Doc

Doc

Secci´on 3: Matrices no negativas

18

a 13

1 2 a 31 a 32 3
1
2
a
31
a
32
3

(a) D(A).

a 13 2 3 a 31 a 32 1 (b) D(B).
a 13
2
3
a 31
a 32
1
(b) D(B).

Figura 7: Digrafos σ-permutados.

donde A 11 y A 22 de ´ordenes menores que n y 1, cuando n 2; o si

n = 1 y A = (0). Si no existe P entonces A es irreducible. Otra definici´on

equivalente de matriz reducible es la siguiente. Si el conjunto {1, 2, puede ser partido en dos subconjuntos complementarios no vac´ıos

, n}

tales que

{i 1 , i 2 ,

, i µ } y {j 1 , j 2 ,

a i α j β = 0

(α = 1,

, j ν },

, µ; β = 1,

(µ + ν = n),

, ν),

se dice que la matriz A = (a ij ) C n×n es reducible [3, p. 46].

Teorema 3.1 Una matriz cuadrada es irreducible si y s´olo si su digrafo es fuertemente conexo.

Toc

Volver

Doc

Doc

Secci´on 3: Matrices no negativas

19

Demostracion.´

V´ease [4, Theorem 1, p. 529].

Teorema 3.2 Sea M R n×n una matriz no negativa. Sea k un entero

situado en el lugar (i, j) de la potencia

M k es distinto de cero si y s´olo si hay un paseo del v´ertice i al j de longitud

k en el digrafo D(M ), asociado a M .

positivo. Entonces el elemento m

(k)

ij

Demostracion.´

V´ease [2, p. 89, Theorem 4.4].

3.1. Forma normal de una matriz reducible

Si una matriz A C n×n es reducible, entonces, por definici´on, existe una matriz de permutaci´on P tal que

P T AP = X 0

Y Z ,

donde X y Z de ´ordenes menores que n y 1. Por conveniencia, denotamos esto escribiendo

A X 0

Y Z .

Si X o Z es reducible, entonces puede ser realizada otra permutaci´on para producir

Toc

X

0

Y

Z

R

0

0

S

U

0

W ,

T

V

Volver

Doc

Doc

Secci´on 3: Matrices no negativas

20

donde R, U y W son cuadradas. Repitiendo este proceso se llega eventual-

mente a

A X 11

0

.

.

.

0

X

X

.

.

.

12

22

0

···

···

.

.

···

.

kk ,

X

X

.

X

1k

2k

donde cada X ii es irreducible o X ii = (0) 1×1 . Un bloque diagonal X ii , 1 i k, se dice aislado si

X ij = 0 para j = i + 1, i + 2,

, k.

Mediante una permutaci´on de filas y columnas de bloques para llevar los bloques diagonales aislados a la parte de abajo, se llega a

A N :=

Toc

A 11

0

.

.

.

0

0

0

.

.

.

0

A

A

12

22

0

0

0

0

···

···

.

···

.

.

···

···

.

.

···

.

A

A

1r

2r

.

A

rr

0

0

.

0

A

A

A

1,r+1

2,r+1

.

.

.

r,r+1

A r+1,r+1

0

.

.

.

0

A

A

A

1,r+2

2,r+2

.

.

.

r,r+2

0

A r+2,r+2

.

.

.

0

···

···

···

···

···

.

.

···

.

Volver

Doc

A

A

A

1m

2m

.

.

.

rm

0

0

.

A mm

,

(1)

Doc

Secci´on 3: Matrices no negativas

21

donde cada bloque diagonal A 11 , (0) 1×1 , y cada fila de bloques

, A mm es, o bien irreducible, o bien

A i,i+1 , A i,i+2 ,

,

A i,r+1 , A i,r+2 ,

, A im

(i = 1,

, r)

tiene al menos un bloque A ij diferente de cero. Adem´as, como dijimos al permutar las l´ıneas de una matriz los digrafos ponderados de A y de la matriz N son isomorfos. A la matriz N se le llama forma normal para la matriz reducible A.

3.2. Teoremas de Perron y Frobenius

Teorema 3.3 (Perron) Una matriz positiva cuadrada A tiene un valor propio real y positivo r que tiene multiplicidad algebraica 1 y es mayor que el valor absoluto de cualquier otro valor propio de A. El valor propio r tiene asociado un vector propio por la derecha positivo.

Demostracion.´

V´ease [4, Corollary 2, p. 542].

Teorema 3.4 (Frobenius, Parte 1 ) Sea A R n×n una matriz no ne- gativa e irreducible, entonces

(a)

La matriz A tiene un valor propio positivo r, igual al radio espectral de A;

(b)

Existe un vector propio positivo (por la derecha) asociado al valor propio r;

Toc

Volver

Doc

Doc

Secci´on 3: Matrices no negativas

22

(c) El valor propio r tiene multiplicidad algebraica 1.

El unico´

vector p definido por

Ap = rp,

p > 0,

p 1 = 1,

se llama el vector de Perron.

Teorema 3.5 (Frobenius, Parte 2 ) Sea la matriz A R n×n no negati-

, λ n a sus valores propios, donde pue-

, λ d

son las ra´ıces d-´esimas distintas de la , d.

, λ n

forman un conjunto invariante bajo rotaciones alrededor del origen de ´angu- lo 2π/d. Si d > 1, entonces existe una matriz de permutaci´on P tal que P T AP tiene la forma partida (Forma de Frobenius)

va e irreducible y llamemos λ 1 , λ 2 ,

de haber repetidos. Si hay exactamente d valores propios λ 1 = r, λ 2 ,

de valor absoluto r y si ω 1 ,

, ω d

unidad, entonces λ j = ω j r, j = 1, 2,

Adem´as, los puntos del plano complejo que representan a λ 1 , λ 2 ,

0

0

.

.

.

0

A d1

en la que los bloques diagonales son cuadrados.

A 12

0

0

A 23

.

.

···

.

···

···

0

0

.

A d1,d

0

.

.

.

0

0

0

0

,

(2)

Toc

Volver

Doc

Doc

Secci´on 3: Matrices no negativas

23

Demostracion.´

V´eanse las p´aginas 536 y 540 de[4].

3.3. Matrices reducibles

Teorema 3.6 Si la matriz A R n×n es no negativa, entonces

(a)

La matriz A tiene un valor propio real, r, igual al radio espectral de A;

(b)

Hay un vector propio no negativo (por la derecha) asociado al valor propio r.

3.4.

Matrices primitivas

Sea A una matriz cuadrada no negativa e irreducible. Sea d el n´umero de valores propios distintos de A de valor absoluto igual al radio espectral (A). Se dice que A es una matriz primitiva o imprimitiva seg´un que sea d = 1 o d > 1. El n´umero d se llama el ´ındice de imprimitividad de A. Veremos que este concepto esta relacionado con el posible periodo de repetici´on de cierto patr´on en una cadena de Markov. Por el Teorema de Perron (Teorema 3.3) se tiene que toda matriz cuadrada positiva es primitiva.

Toc

Volver

Doc

Doc

Secci´on 3: Matrices no negativas

24

Ejemplo 3.2 Sea la matriz

0,3

0

0

0

0

0

el polinomio caracter´ıstico de A es p(λ) = λ 6 λ 3 = λ 3 (λ 3 1); de aqu´ı que los valores propios de A son 0 (triple) y las ra´ıces c´ubicas de la unidad:

0,5 ± 0,866i, 1. Por tanto, A es una matriz irreducible con ´ındice de im- primitividad 3 (no primitiva). Sea

0

0,7

0

0

0

0

0,6

0

1

1

0

1

0

0

0

0

0

0

0,4

0

0

0

0

0,8

0

0

0

0,2

0

0

;

A =

σ = 1 1

2

6

3

2

4

3

5

5

6

4

la permutaci´on de 1,2,3,4,5,6 que lleva las l´ıneas de A a su forma de Frobe- nius

Toc

A F =

0

0

0

0

0,7

0,6

0,3

0

0

0,4

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

0

1

1

1

0,8 0,2

0

0

0

0

Volver

,

Doc

(3)

Doc

Secci´on 3: Matrices no negativas

25

entonces A F = M(σ) T AM (σ), siendo M (σ) la matriz de permutaci´on aso- ciada a σ.

Una funci´on de Matlab que construye la forma de Frobenius A F de una matriz irreducible no primitiva A y la matriz de permutaci´on de paso M , es frobform.m.

Teorema 3.7 Una matriz cuadrada no negativa A de orden n es primitiva si y s´olo si existe un entero positivo p tal que A p > 0.

Demostracion.´

Puede demostrarse [4, p. 547] que p puede tomarse n 2 2n + 2. Es

, n 2

2n + 2, entonces A no es primitiva. El ´ındice de imprimitividad de una matriz est´a relacionado con los ex- ponentes correspondientes a los coeficientes no nulos del polinomio carac- ter´ıstico.

decir, que si A q tiene alg´un elemento igual a 0 para todo q = 1,

V´ease [4, Theorem 1, p. 546].

Teorema 3.8 Sea λ n + a 1 λ n 1 + ··· + a q λ n q el polinomio caracter´ıstico de

, a q son diferentes de cero y n >

n 1 > ··· > n q 0. Entonces, el ´ındice de imprimitividad d de A es igual al

una matriz irreducible A 0, , donde a 1 ,

m´aximo com´un divisor de las diferencias n n 1 , n 1 n 2 ,

Demostracion.´ V´ease [1, p. 34, Theorem 2.2.27].

, n q1 n q .

Toc

Volver

Doc

Doc

Secci´on 3: Matrices no negativas

26

Una matriz irreducible A con r = (A) es primitiva si y s´olo si l´ım k (A/r) k existe, en cuyo caso

k→∞ A

l´ım

r

k = G = pq p > 0,

T

q T

donde p y q son los vectores de Perron respectivos de A y A T . G es el proyector (espectral) sobre Ker(A rI) a lo largo de Im(A rI).

Este hecho est´a demostrado en [5, p. 675].

3.5. Matrices estoc´asticas

Una matriz real P = (p ij ) R n×n se llama estoc´astica si P 0 y la suma de todas sus filas es igual a 1:

n

j=1

p ij = 1,

i = 1,

, n.

(4)

Teorema 3.9 Una matriz no negativa P es estoc´astica si y s´olo si tiene el

valor propio 1 con vector propio (por la derecha) dado por e = [1, 1, Adem´as, el radio espectral de una matriz estoc´astica es 1.

, 1] T .

Demostracion.´

V´ease[4, Theorem 1, p. 547].

Toc

Volver

Doc

Doc

Secci´on 4: Cadenas de Markov discretas

27

4. Cadenas de Markov discretas

Empezaremos hablando de un ejemplo t´ıpico. Sea una rata que se mueve entre los cuatro compartimentos 1, 2, 3 y 4 del laberinto descrito en la Fi- gura 8. Supongamos que en determinados instantes de tiempo t = 0, 1, 2, la rata elige una de las salidas o elige permanecer en el compartimento (en un intervalo de tiempo dado) con la misma probabilidad; as´ı pues, si la

tiempo dado) con la misma probabilidad; as´ı pues, si la Figura 8: Laberinto 1 . rata

Figura 8: Laberinto 1 .

rata est´a en 1 tiene ante s´ı cinco sucesos igualmente probables (elegir la salida a 3, elegir la primera salida a 4, elegir la segunda salida a 4, elegir la tercera salida a 4, quedarse en 1). Tiene unas probabilidades de 1/5 de permanecer en 1, 1/5 de ir a 3 y 3/5 de ir a 4, en el movimiento siguiente, respectivamente. Admitimos la hip´otesis de que la rata “no usa su memoria”; es decir, que el movimiento que va a hacer en cada instante es independiente de la

Toc

Volver

Doc

Doc

Secci´on 4: Cadenas de Markov discretas

28

sucesi´on de lugares que ha ido visitando hasta entonces. Se trata de predecir el comportamiento de la sucesi´on aleatoria de sitios que va visitando; por ejemplo 1 4 1 1 3 1 4 2 3 3 3 1 3 2 3 3 3 1 4 1 4 2 4 4 1 4 1 3 1 4 1 1 1 4 2 2

4 1 1 4 4

¿Cu´al ser´a la evoluci´on a largo plazo? A corto plazo, si empieza en 1, ¿cu´al ser´a el n´umero medio de etapas hasta que visite 2 por vez primera? , por vez tercera? etc.

; observamos que no hay transiciones del 1 al 2, ni del 2 al 1.

En general, consideremos un proceso aleatorio en el que se produce un

cambio de estado en ciertos instantes de tiempo discretos t = 0, 1, 2,

Supongamos que hay un n´umero finito de estados posibles S 1 , S 2 ,

Surge as´ı una sucesi´on (o cadena) de situaciones X 0 , X 1 ,

que cada X t es igual a uno de los n estados. Este proceso se llama cadena de Markov si las probabilidades condicionadas que expresan este cambio de situaciones satisfacen la propiedad de Markov:

P(X t+1 = S j |X t = S i , X t1 = S i t1 ,

para todos los instantes t, todos los estados S i , S j , y todas las posibles

sucesiones S i 0 ,

, S i t1 de estados previos. Esta propiedad traduce la con-

dici´on de que las cadenas de Markov no guardan su historia pasada en la memoria; en cada momento, la evoluci´on al estado siguiente hace tabla rasa

de lo anterior y empieza de nuevo. El valor

p ij (t) := P (X t = S j |X t1 = S i )

, S n . ., el la

, X t ,

, X 0 = S i 0 ) = P(X t+1 = S j |X t = S i )

Toc

Volver

Doc

Doc

Secci´on 4: Cadenas de Markov discretas

29

es la probabilidad de que la cadena est´e en el estado S j en el instante t dado que haya pasado por el estado S i en el instante t 1; por esto, a p ij (t) se le llama la probabilidad de transici´on de moverse del estado S i al S j en el instante t. La matriz de las probabilidades de transici´on

P (t) := p ij (t)

es no negativa para todo t, y sus filas suman 1. As´ı pues, P (t) es una ma- triz estoc´astica. Cuando las probabilidades de transici´on no dependen del tiempo (digamos que p ij (t) = p ij para todo t), la cadena de Markov se dice estacionaria (u homog´enea), y la matriz de transici´on es la matriz constante P = (p ij ). Supondremos siempre esta condici´on. Rec´ıprocamen- te, toda matriz estoc´astica P = (p ij ) R n×n define una cadena de Markov de n estados porque los elementos p ij definen un conjunto de probabilida- des de transici´on, que puede ser interpretado como una cadena de Markov estacionaria con n estados. Una cadena de Markov tambi´en puede ser interpretada como un paseo aleatorio por el digrafo ponderado D(P ) de su matriz estoc´astica P = (p ij ). Es claro que ahora al arco (i, j) de D(P ) se le atribuye el peso p ij > 0. Un vector de distribuci´on de probabilidad se define como un

, p n ) tal que k p k = 1. (Toda fila de una

vector no negativo p = (p 1 , p 2 ,

matriz estoc´astica es uno de estos vectores.) Para una cadena de Markov de n-estados, el vector de distribuci´on de probabilidad de la etapa

Toc

Volver

Doc

Doc

Secci´on 4: Cadenas de Markov discretas

30

k-´esima est´a definido por

p T (k) = (p 1 (k),

,

p n (k)),

k = 1, 2,

,

donde p j (k) = P(X k =