Cadenas Markov Discreta.ppt

download Cadenas Markov Discreta.ppt

of 148

Transcript of Cadenas Markov Discreta.ppt

  • 8/13/2019 Cadenas Markov Discreta.ppt

    1/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    2/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    3/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    4/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    5/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    6/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    7/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    8/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    9/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    10/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    11/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    12/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    13/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    14/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    15/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    16/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    17/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    18/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    19/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    20/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    21/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    22/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    23/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    24/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    25/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    26/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    27/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    28/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    29/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    30/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    31/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    32/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    33/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    34/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    35/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    36/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    37/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    38/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    39/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    40/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    41/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    42/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    43/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    44/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    45/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    46/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    47/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    48/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    49/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    50/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    51/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    52/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    53/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    54/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    55/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    56/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    57/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    58/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    59/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    60/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    61/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    62/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    63/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    64/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    65/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    66/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    67/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    68/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    69/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    70/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    71/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    72/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    73/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    74/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    75/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    76/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    77/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    78/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    79/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    80/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    81/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    82/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    83/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    84/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    85/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    86/148

    Cadenas de Markov discretasCadenas de Markov discretas

  • 8/13/2019 Cadenas Markov Discreta.ppt

    87/148

    Anlisis EstacionarioAnlisis Estacionario

    Se define el vector de probabilidad estacionaria como:

    Se dice que la cadena de Markov tiene probabilidad detransicin estacionaria si se cumple la ecuacin matricial:

    Definicin:

    ;0,1,2...., jiij i PPparajE

    ()limnn

    Cadenas de Markov discretasCadenas de Markov discretas

  • 8/13/2019 Cadenas Markov Discreta.ppt

    88/148

    Anlisis EstacionarioAnlisis Estacionario

    Se dispone de 4 mdulos de atencin que sevan activando secuencialmente a medida quela cantidad de usuarios que deben seratendidos aumenta.

    Cada mdulo tiene un mximo de usuarios alos que puede entregar servicio.

    Cuando un mdulo est completamenteutilizado, entra en servicio el siguientemdulo.

    Si un mdulo deja de ser utilizado, el mdulose desactiva temporalmente, quedando enservicio los mdulos anteriores.

    Ejemplo:

    CentralTelefnica

    G1 G2 G3 G4

    Cadenas de Markov discretasCadenas de Markov discretas

  • 8/13/2019 Cadenas Markov Discreta.ppt

    89/148

    Anlisis EstacionarioAnlisis Estacionario

    Interesa conocer: Cul es la probabilidad de que

    cada mdulo est en uso?. Es decir, se desea conocer, con que

    probabilidad se utiliza cada mdulo,en cualquier instante de tiempo.

    Ejemplo:

    CentralTelefnica

    G1 G2 G3 G4

    Cadenas de Markov discretasCadenas de Markov discretas

  • 8/13/2019 Cadenas Markov Discreta.ppt

    90/148

    Anlisis EstacionarioAnlisis Estacionario

    La definicin de estados para elejemplo ser:

    Estado 1: El mdulo 1 est siendoutilizado. Estado 2: El mdulo 2 est siendo

    utilizado. Estado 3: El mdulo 3 est siendo

    utilizado. Estado 4: El mdulo 4 est siendo

    utilizado.

    Ejemplo:

    CentralTelefnica

    G1 G2 G3 G4

    Cadenas de Markov discretasCadenas de Markov discretas

  • 8/13/2019 Cadenas Markov Discreta.ppt

    91/148

    Anlisis EstacionarioAnlisis Estacionario

    Las probabilidades de transicin, asociada a cada mduloson:

    Ejemplo:

    Desde el 1 al 1: 0.3Desde el 1 al 2: 0.7Desde el 1 al 3: 0Desde el 1 al 4:0

    Desde el 2 al 1: 0.4Desde el 2 al 2: 0.2Desde el 2 al 3: 0.4Desde el 2 al 4: 0

    Desde el 3 al 1: 0Desde el 3 al 2: 0.3Desde el 3 al 3: 0.1Desee el 3 al 4: 0.6

    Desde el 4 al 1: 0Desde el 4 al 2: 0Desde el 4 al 3: 0.5Desee el 4 al 4: 0.5

    Cadenas de Markov discretasCadenas de Markov discretas

  • 8/13/2019 Cadenas Markov Discreta.ppt

    92/148

    Anlisis EstacionarioAnlisis Estacionario

    El diagrama de estados que representa la situacin antesdescrita es el siguiente:

    Ejemplo:

    1 2 3 4

    0.3 0.7

    0.2

    0.4

    0.1

    0.6 0.5

    0.3 0.50.4

    Cadenas de Markov discretasCadenas de Markov discretas

  • 8/13/2019 Cadenas Markov Discreta.ppt

    93/148

    Anlisis EstacionarioAnlisis Estacionario

    La matriz de transicin asociada al ejemplo es:Ejemplo:

    El vector de probabilidad de transicin estacionaria es:

    5.05.000

    6.01.03.0004.02.04.0

    007.03.0

    P

    4321

    Cadenas de Markov discretasCadenas de Markov discretas

  • 8/13/2019 Cadenas Markov Discreta.ppt

    94/148

    Anlisis EstacionarioAnlisis Estacionario

    Considerando las ecuaciones matricial:

    Ejemplo:

    P (1)

    123341

    (2)

    Condicin de probabilidades totales

    En estado estacionario laprobabilidad de estar en estado i

    en el paso n, es igual a laprobabilidad de estar en estado i

    en el paso n+1

    1 = 0,31+0,42

    2 = 0,72+0,22+0,33

    3 = 0,42+0,11+ 0,63

    4 = 0,5 3 + 0,5 4

    Hay que eliminar una delas ecuaciones del

    sistema y agregar la

    ecuacin 2

    Cadenas de Markov discretasCadenas de Markov discretas

  • 8/13/2019 Cadenas Markov Discreta.ppt

    95/148

    Anlisis EstacionarioAnlisis Estacionario

    Resolviendo el sistema de ecuaciones anteriores, seobtiene:

    Ejemplo:

    1 0,127

    2 0,222

    3 0,296

    4 0,355

  • 8/13/2019 Cadenas Markov Discreta.ppt

    96/148

    Eejmplo 3: un modelo para el

  • 8/13/2019 Cadenas Markov Discreta.ppt

    97/148

    j p pdesplazamiento poblacional

    Para efectos de una investigacin, en un determinado pas,una familia puede clasificarse como habitante de zonaurbana, rural o suburbana. Se ha estimado que durante unao cualquiera, el 15% de todas las familias urbanas secambian a zona suburbana y el 5% a zona rural. El 6% de lasfamilias suburbanas pasan a zona urbana y el 4% a zona

    rural. El 4% de las familias rurales pasan a zona urbana y el6% a zona suburbana.

    Cadenas de Markov: ejemplo

  • 8/13/2019 Cadenas Markov Discreta.ppt

    98/148

    Cadenas de Markov: ejemplo

    Tendremos la siguiente matriz de transicin

    Urb. Surb. Rur.

    90006 0040

    04090006 0

    050150800

    ,,,

    ,,,

    ,,,

    P

    Cadenas de Markov

  • 8/13/2019 Cadenas Markov Discreta.ppt

    99/148

    Cadenas de Markov

    Urb Surb. Rural

    0,15 0,04

    0,05

    0,04

    0,06 0,06

    0,8

    0,90

    0,90

    Aplicacin de resultados anteriores

  • 8/13/2019 Cadenas Markov Discreta.ppt

    100/148

    Aplicacin de resultados anteriores

    Consideremos el ejemplo 3, y supongamos que al inicio de lainvestigacin, el 35% de la poblacin viva en reas urbanas, el45% en rea suburbana, y el resto en rea rural.

    a) Si inicialmente una familia vive en un rea rural, cul es laprobabilidad de que tres aos despus esta familia viva en unrea urbana?

    b) Cual es la probabilidad de que tres aos despes de iniciada

    la investigacin una familia viva en el rea urbana?

    Aplicacin de resultados anteriores

  • 8/13/2019 Cadenas Markov Discreta.ppt

    101/148

    Aplicacin de resultados anteriores

    a) 0,0967b) 0,2691

    ),,,(a

    ,,,

    ,,,

    ,,,

    P

    t 20045 035 0

    74110162200967 0

    1055 07593013520

    1248033530539903

    Ejemplo (desplazamiento poblacional:

  • 8/13/2019 Cadenas Markov Discreta.ppt

    102/148

    ejemplo 3)

    Dado que la matriz del ejemplo 3 es ergdica,podemos hacer:

    102

    1

    90006 0040

    04090006 0

    05 015 0800

    321

    321321

    ,,,

    ,,,

    ,,,

    ),,(),,(

    continuacin

  • 8/13/2019 Cadenas Markov Discreta.ppt

    103/148

    continuacin

    Una opcin es:

    321

    3212

    3211

    1

    06 090015 0

    04006 0800

    ,,,

    ,,,

    continuacin

  • 8/13/2019 Cadenas Markov Discreta.ppt

    104/148

    continuacin

    Cuya solucin es

    ( 1, 2, 3) = (0.2077 , 0.4918 , 0.3005)

    Es decir, si con el paso del tiempo se mantiene elcomportamiento descrito por el modelo (lo cual esmuy poco probable) despus de muchos aos,aproximadamente, el 21% de la poblacin ocuparlas zonas urbanas, el 49% las suburbanas y el 30% larural.

    Tiempo de primera pasada

  • 8/13/2019 Cadenas Markov Discreta.ppt

    105/148

    Tiempo de primera pasada

    Estamos interesados en tener informacin respecto alnmero de pasos (transiciones) que hace el procesoal ir de un estado i a un estado j por primera vez. Se

    define

    Ti,j = tiempo de primera pasada al ir del estado i al

    estado j

    Tiempo de primera pasada

  • 8/13/2019 Cadenas Markov Discreta.ppt

    106/148

    Tiempo de primera pasada

    Definimos el tiempo esperado de recurrencia

    E(Ti,j ) = ij

    Se puede demostrar que se cumple:

    jnnjinij

    j

    jj

    p1

    1

    Cadenas de Markov: Otrosadenas de Markov: OtrosEjemplosjemplos

  • 8/13/2019 Cadenas Markov Discreta.ppt

    107/148

    Dos Posibles estados: 0 Llueve 1 No llueve

    Supuesto: El tiempo de maana slo depende del de Hoy.

    Llueve Hoy Prob. que llueva maanaNo llueve Hoy Prob. que llueva maana

    Prediccin del TiempoPrediccin del Tiempo

    Ejemplosjemplos

    Cadenas de Markov: Otrosadenas de Markov: Otros Ejemplosjemplos

  • 8/13/2019 Cadenas Markov Discreta.ppt

    108/148

    La matriz de transicin P queda:

    Grficamente:

    108

    P

    1

    1

    0 1

    0

    1

    0 17,0

    4,0

    11

    Ejemplosjemplos

    Prediccin del TiempoPrediccin del Tiempo

    Cadenas de Markov: Otrosadenas de Markov: OtrosEjemplosjemplos

  • 8/13/2019 Cadenas Markov Discreta.ppt

    109/148

    Sea la probabilidad que llueva hoy de 0.2

    Cual es la Probabilidad incondicional de que maanallueva?

    P 0 7 0 30 4 0 6. .. .

    Ejemplosjemplos

    Prediccin del TiempoPrediccin del Tiempo

    Cadenas de Markov: Otrosadenas de Markov: Otros Ejemplosjemplos

  • 8/13/2019 Cadenas Markov Discreta.ppt

    110/148

    Aplicando el Teorema de Probabilidades Totales: Sea : Probabilidad incondicional de que

    llover maana. = P(maana llover /hoy llueve) + P(maana llover /hoy no llueve)

    02 0800 10. . P P 0 2 0 7 0 8 0 4 0 46. . . . .

    Ejemplosjemplos

    Prediccin del TiempoPrediccin del Tiempo

    Cadenas de Markov: Otrosadenas de Markov: Otros Ejemplosjemplos

  • 8/13/2019 Cadenas Markov Discreta.ppt

    111/148

    0 1 0 111

    0 0 1

    1 0 11 1 ( ) ( ) 1 0 1

    Ejemplosjemplos

    Prediccin del TiempoPrediccin del TiempoEn el caso General:

    Cadenas de Markov otros ejemplos

  • 8/13/2019 Cadenas Markov Discreta.ppt

    112/148

    Cadenas de Markov otros ejemplos

    Si a = 0.7 y b = 0.4, entonces la probabilidad lmite quellover ser:

    es decir:

    0 4 7 /

    1 3 7 /

    0 1 4 7 3 7/ /

    Prediccin del TiempoPrediccin del Tiempo

  • 8/13/2019 Cadenas Markov Discreta.ppt

    113/148

    Ejemplos varios

    113

  • 8/13/2019 Cadenas Markov Discreta.ppt

    114/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    115/148

    Matriz de probabilidades de transicin :

  • 8/13/2019 Cadenas Markov Discreta.ppt

    116/148

    0 1/3 1/3 1/3

    1/2 0 1/2 0

    1/3 1/3 0 1/3

    1/2 0 1/2 0

    P =

    SOLUCIONES ESTACIONARIAS

  • 8/13/2019 Cadenas Markov Discreta.ppt

    117/148

    SOLUCIONES ESTACIONARIAS

    Soluciones Estacionarias parta la Cadena de Markov Regular

    1 = 1/2 2 + 1/3 3 +1/2 4

    2= 1/3 1 + 1/3 3

    3= 1/3 1 +1/2 2 + 3 + 4 se elimina

    4= 1/3 1 + 1/3 3

    1+ 2 + 3 + 4 = 1

    Sol 1=3/10 = 3

    2==2/10 = 4

    117

    12 3 4

    1 0 1/3 1/3 1/32 1/2 0 1/2 03 1/3 1/3 0 1/34 1/2 0 1/2 0

    Preguntas

  • 8/13/2019 Cadenas Markov Discreta.ppt

    118/148

    Preguntas

    1. Cuales son las probabilidades de que encondiciones estacionarias se encuentre encada una de las piezas ?

    2. 1=3/103. 2=2/104. 3=3/105. 4=2/10

    Existe distribucin lmite porque :

  • 8/13/2019 Cadenas Markov Discreta.ppt

    119/148

    Para acabar con el ratn Se pone queso envenenado en la cocina

    Se abre la puerta de la entrada (SE)

    p q

    El sistema tiene una sola clase final

    Esa clase final es aperidica

    S

    C HE

    Ahora el sistema carece de distribucin lmite

  • 8/13/2019 Cadenas Markov Discreta.ppt

    120/148

    -Hay dos distribuciones finales

    E S

    C H

    S E 1/3

    1/3

    1/3

    1/3

    1/3

    1/3

    1/3

    1/3

    Que probabilidad hay de que el sistema sea

  • 8/13/2019 Cadenas Markov Discreta.ppt

    121/148

    absorbido en cada estado final ?

    1. E, S y H son estados transitorios.2. C y SE son estados recurrentes o finales.

    La situacin inicial del ratn determinar lasituacin futura.

    Si inicialmente est en E es ms probable quesalga de casa.

    Si inicialmente est en H es ms probable que sequede en la cocina.

    Matriz de transicin: Estructura de P :1 0 0 0 0

  • 8/13/2019 Cadenas Markov Discreta.ppt

    122/148

    1 0 0 0 0

    0 1 0 0 0

    1/3 0 0 1/3 1/3

    0 1/3 1/3 0 1/3

    0 1/3 1/3 1/3 0

    P = P =

    I O

    R Q

    1. Matriz identidad (tantas columnas y filas como estadosfinales) ( I)

    2. Matriz 2 x 3 (tantas columnas como transitorios y tantasfilas como estados finales) (O)

    3. Matriz 3 x 2 (Probabilidades de absorcin en un solo salto)(R)

    4. Matriz 3 x 3 (Probabilidad de transicin entre transitorios)(Q )

    Resolvemos el sistema:

  • 8/13/2019 Cadenas Markov Discreta.ppt

    123/148

    1 -1/3 -1/3

    -1/3 1 -1/3-1/3 -1/3 1

    1/3 0

    0 1/3

    0 1/3

    I - Q R

    M a t r iz d e

    a b s o r c i n e n u n s o lo s a lt o

    Mat r iz de pr ob . Ent r e t r ansit or ios

    Preguntas

  • 8/13/2019 Cadenas Markov Discreta.ppt

    124/148

    Preguntas

    1. Cual es la probabilidad de que termineenvenenado ?

    2. Cuanto tiempo permanecer el ratn en la

    casa si parte de S ?

    Matriz inversa (I-Q)

  • 8/13/2019 Cadenas Markov Discreta.ppt

    125/148

    Matriz inversa (I Q)

    1.498 0.748 0.748 0.748 1.498 0.748 = (I-Q) -1

    0.748 0.748 1.498 2) Si parte de S permanecer en la casa

    0.748+1.498+0.748 = 2,994

    125

    Matriz NR

  • 8/13/2019 Cadenas Markov Discreta.ppt

    126/148

    NR =

    1) =0,751 si parti del saln

    126

    SE Patio Entrada C cocinaE 0,501 0,499

    S 0,249 0,751

    H 0,249 0,751

  • 8/13/2019 Cadenas Markov Discreta.ppt

    127/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    128/148

  • 8/13/2019 Cadenas Markov Discreta.ppt

    129/148

    Probabilidades condicionales

  • 8/13/2019 Cadenas Markov Discreta.ppt

    130/148

    130

    Una fabrica conservera mexicana de ajes ( chiles ) envasa 4 variedades de chiles:serranos, pasilla, habaneros y poblanos. La fbrica consta de tres plantas de produccin 1,2,y 3. La primera planta produce tres veces ms ajes que la segunda y tercera queproducen lo mismo. En cada cadena se envasas los cuatro tipos de ajes en las siguientesproporciones.

    Prob Serranos Pasilla Habaneros Poblanos

    1 3/5 10% 30% 50% 10%

    2 1/5 30% 40% 10% 20%

    3 1/5 40% 10% 20% 30%

  • 8/13/2019 Cadenas Markov Discreta.ppt

    131/148

    Probabilidades condicionales

  • 8/13/2019 Cadenas Markov Discreta.ppt

    132/148

    132

    1. Si se toma una lata al azar y no es pasilla ni proviene de la segunda planta Cul es laprobabilidad de que provenga de la primera plantas y se de la variedad habanero?

    Se puede reformular el problema inicial cambiando el espacio muestral eliminado laspasilla y la planta 2 . Lo que cambia las probabilidades cono se indica a continuacin

    Prob de elegir la 1 planta y la probabilidad de elegir la 2 es Si se elige la primerala probabilidad de que se aun Habanero es 0,5/0,7 = 0,7143 Pore lo tanto laprobabilidad de elegir la 1 planta y un habanera en este caso ser 0,75( 0,7143)

    =0,5357 Tambin se puede resolver por Bayes

    Probabilidades condicionales

  • 8/13/2019 Cadenas Markov Discreta.ppt

    133/148

    133

    1. Si la primera planta produce el 10 % de las conservas defectuosas, la segunda un 20%

    y la tercera un 15% y se elige al azar un conserva que resulta defectuosa, Calcule laprobabilidad de que provenga de la tercera planta. Calcule la probabilidad de que esaconserva defectuosa se pasilla

    D= defectuoso P(D/1) = 0,1 P(D/2) =0,2 P(D/3)= 0,15

    P(3/D) = P(3) P(D/3)/P(D) = 0,03/ 0,13 = 0,23

    P(D/3) = 0,23 0,1 = 0,023

    Reemplazo de autos

  • 8/13/2019 Cadenas Markov Discreta.ppt

    134/148

    p

    134

    2. Cada ao su auto puede estar funcionando en buen estado B, funcionando con fallas F, oparado por una pana mayor P, de acuerdo a las siguientes probabilidades de transicinanual y costos.

    Si su auto esta pana mayor P usted procede a comparar uno similar de inmediato.

    Estados B F P

    B 0,85 0,10 0,05

    F 0,0 0,70 0,30

    Valor de venta $6 millones $ 2 millones $ 0 millones

    Costo anual Operacin $ 1 milln $ 1,5 milln $ 0 milln

    LE CONVIENE REEMPLAZAR SU AUTO INMEDIATAMENTE CUANDO COMIENZA A PRESENTARFALLAS (F) Y NO ESPERAR UNA PANA MAYOR (P)?

  • 8/13/2019 Cadenas Markov Discreta.ppt

    135/148

    135

  • 8/13/2019 Cadenas Markov Discreta.ppt

    136/148

    136

  • 8/13/2019 Cadenas Markov Discreta.ppt

    137/148

    137

  • 8/13/2019 Cadenas Markov Discreta.ppt

    138/148

    138

  • 8/13/2019 Cadenas Markov Discreta.ppt

    139/148

    139

  • 8/13/2019 Cadenas Markov Discreta.ppt

    140/148

    140

  • 8/13/2019 Cadenas Markov Discreta.ppt

    141/148

    141

  • 8/13/2019 Cadenas Markov Discreta.ppt

    142/148

    142

  • 8/13/2019 Cadenas Markov Discreta.ppt

    143/148

    143

  • 8/13/2019 Cadenas Markov Discreta.ppt

    144/148

    144

    Benitez y Sandoval estn empatados en la final del Master de tenis. Cualquiera de ellos quegane el prximo punto tendr ventajas y si tiene ventajas y vuelve a ganar ganar el juego. Si las

    probabilidades de ganar el prximo punto depende del estado empate o ventaja , de la siguientemanera para cada uno de ellos:Estado Prob. Benitez gane prximo

    puntoProb. de Sandoval gane prximo punto

    empate 2/3 1/3ventaja 3/4 1/2

    Si el juego est empatado1) Modele el trmino del juego como una Cadena de Markov2) Cuantos puntos ms durar el juego?3) Cul es la probabilidad que gane Sandoval ?

    Estados del juego

  • 8/13/2019 Cadenas Markov Discreta.ppt

    145/148

    Estados transientes Empate = 1 Ventaja Benitez = 2 Ventaja Sandoval = 3 Estados absorbentes Gana Benitez = 4 Gana Sandoval = 5

    145

  • 8/13/2019 Cadenas Markov Discreta.ppt

    146/148

    146

  • 8/13/2019 Cadenas Markov Discreta.ppt

    147/148

    Soluciones ion del juego

  • 8/13/2019 Cadenas Markov Discreta.ppt

    148/148

    Si parten empatados

    2)Duracin del juego = +1/2+1 = 3 pts

    3) Probabilidad que gane Sandoval =