Cadenas Markov Discreta.ppt
-
Upload
javier-fuentes -
Category
Documents
-
view
236 -
download
1
Transcript of Cadenas Markov Discreta.ppt
-
8/13/2019 Cadenas Markov Discreta.ppt
1/148
-
8/13/2019 Cadenas Markov Discreta.ppt
2/148
-
8/13/2019 Cadenas Markov Discreta.ppt
3/148
-
8/13/2019 Cadenas Markov Discreta.ppt
4/148
-
8/13/2019 Cadenas Markov Discreta.ppt
5/148
-
8/13/2019 Cadenas Markov Discreta.ppt
6/148
-
8/13/2019 Cadenas Markov Discreta.ppt
7/148
-
8/13/2019 Cadenas Markov Discreta.ppt
8/148
-
8/13/2019 Cadenas Markov Discreta.ppt
9/148
-
8/13/2019 Cadenas Markov Discreta.ppt
10/148
-
8/13/2019 Cadenas Markov Discreta.ppt
11/148
-
8/13/2019 Cadenas Markov Discreta.ppt
12/148
-
8/13/2019 Cadenas Markov Discreta.ppt
13/148
-
8/13/2019 Cadenas Markov Discreta.ppt
14/148
-
8/13/2019 Cadenas Markov Discreta.ppt
15/148
-
8/13/2019 Cadenas Markov Discreta.ppt
16/148
-
8/13/2019 Cadenas Markov Discreta.ppt
17/148
-
8/13/2019 Cadenas Markov Discreta.ppt
18/148
-
8/13/2019 Cadenas Markov Discreta.ppt
19/148
-
8/13/2019 Cadenas Markov Discreta.ppt
20/148
-
8/13/2019 Cadenas Markov Discreta.ppt
21/148
-
8/13/2019 Cadenas Markov Discreta.ppt
22/148
-
8/13/2019 Cadenas Markov Discreta.ppt
23/148
-
8/13/2019 Cadenas Markov Discreta.ppt
24/148
-
8/13/2019 Cadenas Markov Discreta.ppt
25/148
-
8/13/2019 Cadenas Markov Discreta.ppt
26/148
-
8/13/2019 Cadenas Markov Discreta.ppt
27/148
-
8/13/2019 Cadenas Markov Discreta.ppt
28/148
-
8/13/2019 Cadenas Markov Discreta.ppt
29/148
-
8/13/2019 Cadenas Markov Discreta.ppt
30/148
-
8/13/2019 Cadenas Markov Discreta.ppt
31/148
-
8/13/2019 Cadenas Markov Discreta.ppt
32/148
-
8/13/2019 Cadenas Markov Discreta.ppt
33/148
-
8/13/2019 Cadenas Markov Discreta.ppt
34/148
-
8/13/2019 Cadenas Markov Discreta.ppt
35/148
-
8/13/2019 Cadenas Markov Discreta.ppt
36/148
-
8/13/2019 Cadenas Markov Discreta.ppt
37/148
-
8/13/2019 Cadenas Markov Discreta.ppt
38/148
-
8/13/2019 Cadenas Markov Discreta.ppt
39/148
-
8/13/2019 Cadenas Markov Discreta.ppt
40/148
-
8/13/2019 Cadenas Markov Discreta.ppt
41/148
-
8/13/2019 Cadenas Markov Discreta.ppt
42/148
-
8/13/2019 Cadenas Markov Discreta.ppt
43/148
-
8/13/2019 Cadenas Markov Discreta.ppt
44/148
-
8/13/2019 Cadenas Markov Discreta.ppt
45/148
-
8/13/2019 Cadenas Markov Discreta.ppt
46/148
-
8/13/2019 Cadenas Markov Discreta.ppt
47/148
-
8/13/2019 Cadenas Markov Discreta.ppt
48/148
-
8/13/2019 Cadenas Markov Discreta.ppt
49/148
-
8/13/2019 Cadenas Markov Discreta.ppt
50/148
-
8/13/2019 Cadenas Markov Discreta.ppt
51/148
-
8/13/2019 Cadenas Markov Discreta.ppt
52/148
-
8/13/2019 Cadenas Markov Discreta.ppt
53/148
-
8/13/2019 Cadenas Markov Discreta.ppt
54/148
-
8/13/2019 Cadenas Markov Discreta.ppt
55/148
-
8/13/2019 Cadenas Markov Discreta.ppt
56/148
-
8/13/2019 Cadenas Markov Discreta.ppt
57/148
-
8/13/2019 Cadenas Markov Discreta.ppt
58/148
-
8/13/2019 Cadenas Markov Discreta.ppt
59/148
-
8/13/2019 Cadenas Markov Discreta.ppt
60/148
-
8/13/2019 Cadenas Markov Discreta.ppt
61/148
-
8/13/2019 Cadenas Markov Discreta.ppt
62/148
-
8/13/2019 Cadenas Markov Discreta.ppt
63/148
-
8/13/2019 Cadenas Markov Discreta.ppt
64/148
-
8/13/2019 Cadenas Markov Discreta.ppt
65/148
-
8/13/2019 Cadenas Markov Discreta.ppt
66/148
-
8/13/2019 Cadenas Markov Discreta.ppt
67/148
-
8/13/2019 Cadenas Markov Discreta.ppt
68/148
-
8/13/2019 Cadenas Markov Discreta.ppt
69/148
-
8/13/2019 Cadenas Markov Discreta.ppt
70/148
-
8/13/2019 Cadenas Markov Discreta.ppt
71/148
-
8/13/2019 Cadenas Markov Discreta.ppt
72/148
-
8/13/2019 Cadenas Markov Discreta.ppt
73/148
-
8/13/2019 Cadenas Markov Discreta.ppt
74/148
-
8/13/2019 Cadenas Markov Discreta.ppt
75/148
-
8/13/2019 Cadenas Markov Discreta.ppt
76/148
-
8/13/2019 Cadenas Markov Discreta.ppt
77/148
-
8/13/2019 Cadenas Markov Discreta.ppt
78/148
-
8/13/2019 Cadenas Markov Discreta.ppt
79/148
-
8/13/2019 Cadenas Markov Discreta.ppt
80/148
-
8/13/2019 Cadenas Markov Discreta.ppt
81/148
-
8/13/2019 Cadenas Markov Discreta.ppt
82/148
-
8/13/2019 Cadenas Markov Discreta.ppt
83/148
-
8/13/2019 Cadenas Markov Discreta.ppt
84/148
-
8/13/2019 Cadenas Markov Discreta.ppt
85/148
-
8/13/2019 Cadenas Markov Discreta.ppt
86/148
Cadenas de Markov discretasCadenas de Markov discretas
-
8/13/2019 Cadenas Markov Discreta.ppt
87/148
Anlisis EstacionarioAnlisis Estacionario
Se define el vector de probabilidad estacionaria como:
Se dice que la cadena de Markov tiene probabilidad detransicin estacionaria si se cumple la ecuacin matricial:
Definicin:
;0,1,2...., jiij i PPparajE
()limnn
Cadenas de Markov discretasCadenas de Markov discretas
-
8/13/2019 Cadenas Markov Discreta.ppt
88/148
Anlisis EstacionarioAnlisis Estacionario
Se dispone de 4 mdulos de atencin que sevan activando secuencialmente a medida quela cantidad de usuarios que deben seratendidos aumenta.
Cada mdulo tiene un mximo de usuarios alos que puede entregar servicio.
Cuando un mdulo est completamenteutilizado, entra en servicio el siguientemdulo.
Si un mdulo deja de ser utilizado, el mdulose desactiva temporalmente, quedando enservicio los mdulos anteriores.
Ejemplo:
CentralTelefnica
G1 G2 G3 G4
Cadenas de Markov discretasCadenas de Markov discretas
-
8/13/2019 Cadenas Markov Discreta.ppt
89/148
Anlisis EstacionarioAnlisis Estacionario
Interesa conocer: Cul es la probabilidad de que
cada mdulo est en uso?. Es decir, se desea conocer, con que
probabilidad se utiliza cada mdulo,en cualquier instante de tiempo.
Ejemplo:
CentralTelefnica
G1 G2 G3 G4
Cadenas de Markov discretasCadenas de Markov discretas
-
8/13/2019 Cadenas Markov Discreta.ppt
90/148
Anlisis EstacionarioAnlisis Estacionario
La definicin de estados para elejemplo ser:
Estado 1: El mdulo 1 est siendoutilizado. Estado 2: El mdulo 2 est siendo
utilizado. Estado 3: El mdulo 3 est siendo
utilizado. Estado 4: El mdulo 4 est siendo
utilizado.
Ejemplo:
CentralTelefnica
G1 G2 G3 G4
Cadenas de Markov discretasCadenas de Markov discretas
-
8/13/2019 Cadenas Markov Discreta.ppt
91/148
Anlisis EstacionarioAnlisis Estacionario
Las probabilidades de transicin, asociada a cada mduloson:
Ejemplo:
Desde el 1 al 1: 0.3Desde el 1 al 2: 0.7Desde el 1 al 3: 0Desde el 1 al 4:0
Desde el 2 al 1: 0.4Desde el 2 al 2: 0.2Desde el 2 al 3: 0.4Desde el 2 al 4: 0
Desde el 3 al 1: 0Desde el 3 al 2: 0.3Desde el 3 al 3: 0.1Desee el 3 al 4: 0.6
Desde el 4 al 1: 0Desde el 4 al 2: 0Desde el 4 al 3: 0.5Desee el 4 al 4: 0.5
Cadenas de Markov discretasCadenas de Markov discretas
-
8/13/2019 Cadenas Markov Discreta.ppt
92/148
Anlisis EstacionarioAnlisis Estacionario
El diagrama de estados que representa la situacin antesdescrita es el siguiente:
Ejemplo:
1 2 3 4
0.3 0.7
0.2
0.4
0.1
0.6 0.5
0.3 0.50.4
Cadenas de Markov discretasCadenas de Markov discretas
-
8/13/2019 Cadenas Markov Discreta.ppt
93/148
Anlisis EstacionarioAnlisis Estacionario
La matriz de transicin asociada al ejemplo es:Ejemplo:
El vector de probabilidad de transicin estacionaria es:
5.05.000
6.01.03.0004.02.04.0
007.03.0
P
4321
Cadenas de Markov discretasCadenas de Markov discretas
-
8/13/2019 Cadenas Markov Discreta.ppt
94/148
Anlisis EstacionarioAnlisis Estacionario
Considerando las ecuaciones matricial:
Ejemplo:
P (1)
123341
(2)
Condicin de probabilidades totales
En estado estacionario laprobabilidad de estar en estado i
en el paso n, es igual a laprobabilidad de estar en estado i
en el paso n+1
1 = 0,31+0,42
2 = 0,72+0,22+0,33
3 = 0,42+0,11+ 0,63
4 = 0,5 3 + 0,5 4
Hay que eliminar una delas ecuaciones del
sistema y agregar la
ecuacin 2
Cadenas de Markov discretasCadenas de Markov discretas
-
8/13/2019 Cadenas Markov Discreta.ppt
95/148
Anlisis EstacionarioAnlisis Estacionario
Resolviendo el sistema de ecuaciones anteriores, seobtiene:
Ejemplo:
1 0,127
2 0,222
3 0,296
4 0,355
-
8/13/2019 Cadenas Markov Discreta.ppt
96/148
Eejmplo 3: un modelo para el
-
8/13/2019 Cadenas Markov Discreta.ppt
97/148
j p pdesplazamiento poblacional
Para efectos de una investigacin, en un determinado pas,una familia puede clasificarse como habitante de zonaurbana, rural o suburbana. Se ha estimado que durante unao cualquiera, el 15% de todas las familias urbanas secambian a zona suburbana y el 5% a zona rural. El 6% de lasfamilias suburbanas pasan a zona urbana y el 4% a zona
rural. El 4% de las familias rurales pasan a zona urbana y el6% a zona suburbana.
Cadenas de Markov: ejemplo
-
8/13/2019 Cadenas Markov Discreta.ppt
98/148
Cadenas de Markov: ejemplo
Tendremos la siguiente matriz de transicin
Urb. Surb. Rur.
90006 0040
04090006 0
050150800
,,,
,,,
,,,
P
Cadenas de Markov
-
8/13/2019 Cadenas Markov Discreta.ppt
99/148
Cadenas de Markov
Urb Surb. Rural
0,15 0,04
0,05
0,04
0,06 0,06
0,8
0,90
0,90
Aplicacin de resultados anteriores
-
8/13/2019 Cadenas Markov Discreta.ppt
100/148
Aplicacin de resultados anteriores
Consideremos el ejemplo 3, y supongamos que al inicio de lainvestigacin, el 35% de la poblacin viva en reas urbanas, el45% en rea suburbana, y el resto en rea rural.
a) Si inicialmente una familia vive en un rea rural, cul es laprobabilidad de que tres aos despus esta familia viva en unrea urbana?
b) Cual es la probabilidad de que tres aos despes de iniciada
la investigacin una familia viva en el rea urbana?
Aplicacin de resultados anteriores
-
8/13/2019 Cadenas Markov Discreta.ppt
101/148
Aplicacin de resultados anteriores
a) 0,0967b) 0,2691
),,,(a
,,,
,,,
,,,
P
t 20045 035 0
74110162200967 0
1055 07593013520
1248033530539903
Ejemplo (desplazamiento poblacional:
-
8/13/2019 Cadenas Markov Discreta.ppt
102/148
ejemplo 3)
Dado que la matriz del ejemplo 3 es ergdica,podemos hacer:
102
1
90006 0040
04090006 0
05 015 0800
321
321321
,,,
,,,
,,,
),,(),,(
continuacin
-
8/13/2019 Cadenas Markov Discreta.ppt
103/148
continuacin
Una opcin es:
321
3212
3211
1
06 090015 0
04006 0800
,,,
,,,
continuacin
-
8/13/2019 Cadenas Markov Discreta.ppt
104/148
continuacin
Cuya solucin es
( 1, 2, 3) = (0.2077 , 0.4918 , 0.3005)
Es decir, si con el paso del tiempo se mantiene elcomportamiento descrito por el modelo (lo cual esmuy poco probable) despus de muchos aos,aproximadamente, el 21% de la poblacin ocuparlas zonas urbanas, el 49% las suburbanas y el 30% larural.
Tiempo de primera pasada
-
8/13/2019 Cadenas Markov Discreta.ppt
105/148
Tiempo de primera pasada
Estamos interesados en tener informacin respecto alnmero de pasos (transiciones) que hace el procesoal ir de un estado i a un estado j por primera vez. Se
define
Ti,j = tiempo de primera pasada al ir del estado i al
estado j
Tiempo de primera pasada
-
8/13/2019 Cadenas Markov Discreta.ppt
106/148
Tiempo de primera pasada
Definimos el tiempo esperado de recurrencia
E(Ti,j ) = ij
Se puede demostrar que se cumple:
jnnjinij
j
jj
p1
1
Cadenas de Markov: Otrosadenas de Markov: OtrosEjemplosjemplos
-
8/13/2019 Cadenas Markov Discreta.ppt
107/148
Dos Posibles estados: 0 Llueve 1 No llueve
Supuesto: El tiempo de maana slo depende del de Hoy.
Llueve Hoy Prob. que llueva maanaNo llueve Hoy Prob. que llueva maana
Prediccin del TiempoPrediccin del Tiempo
Ejemplosjemplos
Cadenas de Markov: Otrosadenas de Markov: Otros Ejemplosjemplos
-
8/13/2019 Cadenas Markov Discreta.ppt
108/148
La matriz de transicin P queda:
Grficamente:
108
P
1
1
0 1
0
1
0 17,0
4,0
11
Ejemplosjemplos
Prediccin del TiempoPrediccin del Tiempo
Cadenas de Markov: Otrosadenas de Markov: OtrosEjemplosjemplos
-
8/13/2019 Cadenas Markov Discreta.ppt
109/148
Sea la probabilidad que llueva hoy de 0.2
Cual es la Probabilidad incondicional de que maanallueva?
P 0 7 0 30 4 0 6. .. .
Ejemplosjemplos
Prediccin del TiempoPrediccin del Tiempo
Cadenas de Markov: Otrosadenas de Markov: Otros Ejemplosjemplos
-
8/13/2019 Cadenas Markov Discreta.ppt
110/148
Aplicando el Teorema de Probabilidades Totales: Sea : Probabilidad incondicional de que
llover maana. = P(maana llover /hoy llueve) + P(maana llover /hoy no llueve)
02 0800 10. . P P 0 2 0 7 0 8 0 4 0 46. . . . .
Ejemplosjemplos
Prediccin del TiempoPrediccin del Tiempo
Cadenas de Markov: Otrosadenas de Markov: Otros Ejemplosjemplos
-
8/13/2019 Cadenas Markov Discreta.ppt
111/148
0 1 0 111
0 0 1
1 0 11 1 ( ) ( ) 1 0 1
Ejemplosjemplos
Prediccin del TiempoPrediccin del TiempoEn el caso General:
Cadenas de Markov otros ejemplos
-
8/13/2019 Cadenas Markov Discreta.ppt
112/148
Cadenas de Markov otros ejemplos
Si a = 0.7 y b = 0.4, entonces la probabilidad lmite quellover ser:
es decir:
0 4 7 /
1 3 7 /
0 1 4 7 3 7/ /
Prediccin del TiempoPrediccin del Tiempo
-
8/13/2019 Cadenas Markov Discreta.ppt
113/148
Ejemplos varios
113
-
8/13/2019 Cadenas Markov Discreta.ppt
114/148
-
8/13/2019 Cadenas Markov Discreta.ppt
115/148
Matriz de probabilidades de transicin :
-
8/13/2019 Cadenas Markov Discreta.ppt
116/148
0 1/3 1/3 1/3
1/2 0 1/2 0
1/3 1/3 0 1/3
1/2 0 1/2 0
P =
SOLUCIONES ESTACIONARIAS
-
8/13/2019 Cadenas Markov Discreta.ppt
117/148
SOLUCIONES ESTACIONARIAS
Soluciones Estacionarias parta la Cadena de Markov Regular
1 = 1/2 2 + 1/3 3 +1/2 4
2= 1/3 1 + 1/3 3
3= 1/3 1 +1/2 2 + 3 + 4 se elimina
4= 1/3 1 + 1/3 3
1+ 2 + 3 + 4 = 1
Sol 1=3/10 = 3
2==2/10 = 4
117
12 3 4
1 0 1/3 1/3 1/32 1/2 0 1/2 03 1/3 1/3 0 1/34 1/2 0 1/2 0
Preguntas
-
8/13/2019 Cadenas Markov Discreta.ppt
118/148
Preguntas
1. Cuales son las probabilidades de que encondiciones estacionarias se encuentre encada una de las piezas ?
2. 1=3/103. 2=2/104. 3=3/105. 4=2/10
Existe distribucin lmite porque :
-
8/13/2019 Cadenas Markov Discreta.ppt
119/148
Para acabar con el ratn Se pone queso envenenado en la cocina
Se abre la puerta de la entrada (SE)
p q
El sistema tiene una sola clase final
Esa clase final es aperidica
S
C HE
Ahora el sistema carece de distribucin lmite
-
8/13/2019 Cadenas Markov Discreta.ppt
120/148
-Hay dos distribuciones finales
E S
C H
S E 1/3
1/3
1/3
1/3
1/3
1/3
1/3
1/3
Que probabilidad hay de que el sistema sea
-
8/13/2019 Cadenas Markov Discreta.ppt
121/148
absorbido en cada estado final ?
1. E, S y H son estados transitorios.2. C y SE son estados recurrentes o finales.
La situacin inicial del ratn determinar lasituacin futura.
Si inicialmente est en E es ms probable quesalga de casa.
Si inicialmente est en H es ms probable que sequede en la cocina.
Matriz de transicin: Estructura de P :1 0 0 0 0
-
8/13/2019 Cadenas Markov Discreta.ppt
122/148
1 0 0 0 0
0 1 0 0 0
1/3 0 0 1/3 1/3
0 1/3 1/3 0 1/3
0 1/3 1/3 1/3 0
P = P =
I O
R Q
1. Matriz identidad (tantas columnas y filas como estadosfinales) ( I)
2. Matriz 2 x 3 (tantas columnas como transitorios y tantasfilas como estados finales) (O)
3. Matriz 3 x 2 (Probabilidades de absorcin en un solo salto)(R)
4. Matriz 3 x 3 (Probabilidad de transicin entre transitorios)(Q )
Resolvemos el sistema:
-
8/13/2019 Cadenas Markov Discreta.ppt
123/148
1 -1/3 -1/3
-1/3 1 -1/3-1/3 -1/3 1
1/3 0
0 1/3
0 1/3
I - Q R
M a t r iz d e
a b s o r c i n e n u n s o lo s a lt o
Mat r iz de pr ob . Ent r e t r ansit or ios
Preguntas
-
8/13/2019 Cadenas Markov Discreta.ppt
124/148
Preguntas
1. Cual es la probabilidad de que termineenvenenado ?
2. Cuanto tiempo permanecer el ratn en la
casa si parte de S ?
Matriz inversa (I-Q)
-
8/13/2019 Cadenas Markov Discreta.ppt
125/148
Matriz inversa (I Q)
1.498 0.748 0.748 0.748 1.498 0.748 = (I-Q) -1
0.748 0.748 1.498 2) Si parte de S permanecer en la casa
0.748+1.498+0.748 = 2,994
125
Matriz NR
-
8/13/2019 Cadenas Markov Discreta.ppt
126/148
NR =
1) =0,751 si parti del saln
126
SE Patio Entrada C cocinaE 0,501 0,499
S 0,249 0,751
H 0,249 0,751
-
8/13/2019 Cadenas Markov Discreta.ppt
127/148
-
8/13/2019 Cadenas Markov Discreta.ppt
128/148
-
8/13/2019 Cadenas Markov Discreta.ppt
129/148
Probabilidades condicionales
-
8/13/2019 Cadenas Markov Discreta.ppt
130/148
130
Una fabrica conservera mexicana de ajes ( chiles ) envasa 4 variedades de chiles:serranos, pasilla, habaneros y poblanos. La fbrica consta de tres plantas de produccin 1,2,y 3. La primera planta produce tres veces ms ajes que la segunda y tercera queproducen lo mismo. En cada cadena se envasas los cuatro tipos de ajes en las siguientesproporciones.
Prob Serranos Pasilla Habaneros Poblanos
1 3/5 10% 30% 50% 10%
2 1/5 30% 40% 10% 20%
3 1/5 40% 10% 20% 30%
-
8/13/2019 Cadenas Markov Discreta.ppt
131/148
Probabilidades condicionales
-
8/13/2019 Cadenas Markov Discreta.ppt
132/148
132
1. Si se toma una lata al azar y no es pasilla ni proviene de la segunda planta Cul es laprobabilidad de que provenga de la primera plantas y se de la variedad habanero?
Se puede reformular el problema inicial cambiando el espacio muestral eliminado laspasilla y la planta 2 . Lo que cambia las probabilidades cono se indica a continuacin
Prob de elegir la 1 planta y la probabilidad de elegir la 2 es Si se elige la primerala probabilidad de que se aun Habanero es 0,5/0,7 = 0,7143 Pore lo tanto laprobabilidad de elegir la 1 planta y un habanera en este caso ser 0,75( 0,7143)
=0,5357 Tambin se puede resolver por Bayes
Probabilidades condicionales
-
8/13/2019 Cadenas Markov Discreta.ppt
133/148
133
1. Si la primera planta produce el 10 % de las conservas defectuosas, la segunda un 20%
y la tercera un 15% y se elige al azar un conserva que resulta defectuosa, Calcule laprobabilidad de que provenga de la tercera planta. Calcule la probabilidad de que esaconserva defectuosa se pasilla
D= defectuoso P(D/1) = 0,1 P(D/2) =0,2 P(D/3)= 0,15
P(3/D) = P(3) P(D/3)/P(D) = 0,03/ 0,13 = 0,23
P(D/3) = 0,23 0,1 = 0,023
Reemplazo de autos
-
8/13/2019 Cadenas Markov Discreta.ppt
134/148
p
134
2. Cada ao su auto puede estar funcionando en buen estado B, funcionando con fallas F, oparado por una pana mayor P, de acuerdo a las siguientes probabilidades de transicinanual y costos.
Si su auto esta pana mayor P usted procede a comparar uno similar de inmediato.
Estados B F P
B 0,85 0,10 0,05
F 0,0 0,70 0,30
Valor de venta $6 millones $ 2 millones $ 0 millones
Costo anual Operacin $ 1 milln $ 1,5 milln $ 0 milln
LE CONVIENE REEMPLAZAR SU AUTO INMEDIATAMENTE CUANDO COMIENZA A PRESENTARFALLAS (F) Y NO ESPERAR UNA PANA MAYOR (P)?
-
8/13/2019 Cadenas Markov Discreta.ppt
135/148
135
-
8/13/2019 Cadenas Markov Discreta.ppt
136/148
136
-
8/13/2019 Cadenas Markov Discreta.ppt
137/148
137
-
8/13/2019 Cadenas Markov Discreta.ppt
138/148
138
-
8/13/2019 Cadenas Markov Discreta.ppt
139/148
139
-
8/13/2019 Cadenas Markov Discreta.ppt
140/148
140
-
8/13/2019 Cadenas Markov Discreta.ppt
141/148
141
-
8/13/2019 Cadenas Markov Discreta.ppt
142/148
142
-
8/13/2019 Cadenas Markov Discreta.ppt
143/148
143
-
8/13/2019 Cadenas Markov Discreta.ppt
144/148
144
Benitez y Sandoval estn empatados en la final del Master de tenis. Cualquiera de ellos quegane el prximo punto tendr ventajas y si tiene ventajas y vuelve a ganar ganar el juego. Si las
probabilidades de ganar el prximo punto depende del estado empate o ventaja , de la siguientemanera para cada uno de ellos:Estado Prob. Benitez gane prximo
puntoProb. de Sandoval gane prximo punto
empate 2/3 1/3ventaja 3/4 1/2
Si el juego est empatado1) Modele el trmino del juego como una Cadena de Markov2) Cuantos puntos ms durar el juego?3) Cul es la probabilidad que gane Sandoval ?
Estados del juego
-
8/13/2019 Cadenas Markov Discreta.ppt
145/148
Estados transientes Empate = 1 Ventaja Benitez = 2 Ventaja Sandoval = 3 Estados absorbentes Gana Benitez = 4 Gana Sandoval = 5
145
-
8/13/2019 Cadenas Markov Discreta.ppt
146/148
146
-
8/13/2019 Cadenas Markov Discreta.ppt
147/148
Soluciones ion del juego
-
8/13/2019 Cadenas Markov Discreta.ppt
148/148
Si parten empatados
2)Duracin del juego = +1/2+1 = 3 pts
3) Probabilidad que gane Sandoval =