Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel...

43
Hidden Markov Hidden Markov Models Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda

Transcript of Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel...

Page 1: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Hidden Markov Hidden Markov ModelsModelsAngélica Minaya

Francesca Barletta

Jeanette Velásquez

Mónica Pajuelo

Daniel Rueda

Page 2: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Las Cadenas de MarkovLas Cadenas de Markov

El Modelo de Hidden MarkovEl Modelo de Hidden Markov

Aplicaciones y Demostraciones de Aplicaciones y Demostraciones de HMM.HMM.

Page 3: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Introducción de Markov Introducción de Markov ChainsChains

Un grupo finito de Un grupo finito de SS posibles “ posibles “estadosestados” ” (E1,E2,E3...,Es), en unidad de tiempo, t (E1,E2,E3...,Es), en unidad de tiempo, t =1,2,3... .=1,2,3... .

El proceso de cadenas de Markov ocupa El proceso de cadenas de Markov ocupa uno de estos estados.uno de estos estados.

E3, tE3, tE4, t+1E4, t+1

Para que MC permanezca en un estado o Para que MC permanezca en un estado o se mueva depende de probabilidades.se mueva depende de probabilidades.

Page 4: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Propiedades de Markov Propiedades de Markov ChainsChains

Sin memoriaSin memoria

E3E3 E4 E4

t t+1t t+1 Homogeneidad del tiempo.Homogeneidad del tiempo.

Independiente del ”tiempo”Independiente del ”tiempo”

Page 5: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Matrix de Transición Matrix de Transición

SS11 SS22 SS33

SS11 00 11 00

SS22 1/31/3 2/32/3 00

SS33 1/2 1/2 1/31/3 1/61/6

Page 6: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Matriz de Probabilidad Matriz de Probabilidad de Transición de Estadosde Transición de Estados

(a E1) (a E2) (a E3) ... (a Es)(a E1) (a E2) (a E3) ... (a Es)

(deE1)(deE1) P11 P12 P13 ... P1s P11 P12 P13 ... P1s

(deE2) (deE2) P21 P22 P23 ... P2sP21 P22 P23 ... P2s

P= P= . . . . .. . . . .

. . . .. . . .

. . . . .. . . . .

(deEs) (deEs) Ps1 Ps2 Ps3 ... Pss Ps1 Ps2 Ps3 ... Pss

Page 7: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Representación de las Representación de las Cadenas de MarkovCadenas de Markov

A B

C D

0.2

0.3

0.5

0.05

0.95

0.2

0.8

1

00110000

0.80.8000.20.200

0.30.3000.50.50.20.2

000.050.05000.950.95

A B

B

A

C

C

D

D

Page 8: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

¿¿Que tal si cada estado no Que tal si cada estado no corresponde a un evento (físico) corresponde a un evento (físico) observable? observable?

¿¿Que tal si el estado produce un Que tal si el estado produce un evento observable, que es una evento observable, que es una función probabilistica de éste?función probabilistica de éste?

Page 9: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Hidden Markov Hidden Markov ModelsModels(HMM)(HMM)

Page 10: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Descripción de las Descripción de las PropiedadesPropiedades

HMM es similar a las cadenas de HMM es similar a las cadenas de Markov, pero más general y flexible.Markov, pero más general y flexible.

HMM es un modelo de Markov, HMM es un modelo de Markov, “discreto en el tiempo”“discreto en el tiempo”

Cuando un estado es visitado por las Cuando un estado es visitado por las cadenas de Markov, el estado emite cadenas de Markov, el estado emite una letra de un alfabeto fijado una letra de un alfabeto fijado independiente del tiempo.independiente del tiempo.

Page 11: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Descripción de las Descripción de las PropiedadesPropiedades

Las letras son emitidas vía una Las letras son emitidas vía una distribución de probabilidades, distribución de probabilidades, independiente del tiempo, pero independiente del tiempo, pero usualmente dependiente del estado.usualmente dependiente del estado.

Inicial emisióntransiciónemisióntransición.. q1 O1 q2 O2 q3

Page 12: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Descripción de las Descripción de las PropiedadesPropiedades

Se denota la secuencia de Se denota la secuencia de qqii´s´s por por QQ y la secuencia total de y la secuencia total de OOii´s´s por por OO..

Se escribe la secuencia observada Se escribe la secuencia observada como:como:

OO = = OO1 1 , , OO2 2 , ..., ...

Se escribe la secuencia de estados Se escribe la secuencia de estados como:como:

Q = qQ = q1 1 , q, q2 2 , ..., ...

Page 13: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Descripción de las Descripción de las PropiedadesPropiedades

Frecuentemente conocemos Frecuentemente conocemos OO, , pero no conocemos pero no conocemos Q Q (“Hidden”.)(“Hidden”.)

Con HMM se pueden responder Con HMM se pueden responder muchas preguntas de muchas preguntas de OO y de y de QQ..

Inicial emisióntransiciónemisióntransición q1 1 q2 2 q3

Page 14: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Una de estas preguntas Una de estas preguntas es:....es:....

¿¿Dada una secuencia observada Dada una secuencia observada OO, cuál es la , cuál es la secuencia de estados ocultos secuencia de estados ocultos Q Q que tiene la que tiene la más alta probabilidad de emitir dicha más alta probabilidad de emitir dicha secuencia? secuencia?

Page 15: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

S1 S2

S1 0,9 0,1

S2 0,8 0,2

S1 S20,8

0,10,9

0,2

Considerando la cadena de Markov con dos estados S1 y S2, con una distribución inicial uniforme y con una matriz de transición:

Page 16: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

1

Suponiendo que la secuencia observada es O =2,2,2

Qué secuencia de estados Q = q1, q2, q3 tiene la más alta probabilidad de emitir O?

S1

2

0,5

0,5

S2

1

2

0,25

0,75

Sea A, un alfabeto, que consta de:

A = 1, 2

Page 17: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

O = 2 2 2

S1 S1 S1

S1 S1 S2

S1 S2 S1

S1 S2 S2

S2 S2 S2

S2 S2 S1

S2 S1 S2

S2 S1 S1

Q = S2, S1, S1

S1 S2

S1 0,9 0,1

S2 0,8 0,2

S1 20,5

S2 20,75

Page 18: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

El cálculo anterior se pudo hacer a El cálculo anterior se pudo hacer a “mano”, sin embargo ….“mano”, sin embargo ….

¿Q¿Qué pasa cuando el alfabeto tiene ué pasa cuando el alfabeto tiene muchos símbolos (como 20 letras muchos símbolos (como 20 letras que corresponden a los aminoacidos)que corresponden a los aminoacidos)

Page 19: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Elementos de un HMMElementos de un HMMCaracterísticas de Estructura Características de Estructura

1)1) Conjunto de estados. Conjunto de estados. Q={qQ={q11,q,q22,q,q33..q..qNN}}2)2) Conjunto de observables,Conjunto de observables, O={OO={O11, O, O22..O..ONN}}3)3) Matriz de transición de Matriz de transición de

probabilidad de estadosprobabilidad de estados

Características de los ParámetrosCaracterísticas de los Parámetros

4)4) Probabilidad de que un Probabilidad de que un observables sea emitidoobservables sea emitido en el estado qen el estado qjj, ,

4)4) Una distribución de estados inicialUna distribución de estados inicial

2.08.0

1.09.0P

ObB i

ipp

q2

1

2

0,25

0,75

Page 20: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

S1 S2

S1 0,9 0,1

S2 0,8 0,2

Cálculos Frecuentes en Cálculos Frecuentes en HMMsHMMs

1-1-.. Dado:Dado:• El estado inicial, El estado inicial, • La matriz de transición entre La matriz de transición entre

estados estados • La probabilidades de que un La probabilidades de que un

estado S estado S ii emita un observable emita un observable

en el tiempoen el tiempo tt , , (t,i)(t,i)

• Calcular la probabilidad de que alguna Calcular la probabilidad de que alguna secuencia de observables O ={Osecuencia de observables O ={O11OO22……OOtt} aparezca.} aparezca.

• SoluciónSolución :: Algoritmo Algoritmo Forward o Forward o BackwardBackward

S2

1

2

0,25

0,75

Page 21: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Algoritmo Forward (o Algoritmo Forward (o Backward)Backward)

Inicial O1 transición O2 transición O3

q1 (cualquiera) q2 q2

O1 transición O2 transición O3

q1 q1

O1 transición O2 transición O3

q3 q3Algoritmo Forward - Se da algun estado inical S1 en t¡=0 y por inducción se calculan

( Backward ) TODAS LAS PROBABILIDADES de que hacia (t=1) se emita O1 ,

luego TODAS LAS PROBABILIDADES de que hacia (t=2) se emita

O1O2, y hacia (t=3) se emita O1O2O3, y asi sucesivamente

N

i

iTOP1

,

Page 22: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Cálculos Frecuentes en Cálculos Frecuentes en HMMsHMMs

2-2- Dado Dado O ={OO ={O11OO22…O…Ot t } , } ,

Calcular Calcular Q = qQ = q11qq22qq33…q…qtt que haya sido que haya sido mas probable. Calcular P[Q | O] maximo!!mas probable. Calcular P[Q | O] maximo!!

Se calcula un parámetro, Se calcula un parámetro, (t,i) que sea la de maxima (t,i) que sea la de maxima probabilidad de todas las secuencias que termine en el estado Sprobabilidad de todas las secuencias que termine en el estado S ii en el tiempo t y de tener una secuencia de observables Oen el tiempo t y de tener una secuencia de observables O11OO22…O…Ott..

Hay muchas secuencias de estados que den una altas Hay muchas secuencias de estados que den una altas probabilidad de O ={Oprobabilidad de O ={O11OO22…O…Ot t } }

Un algoritmo para encontrar uno de estos valores es:Un algoritmo para encontrar uno de estos valores es:

Algoritmo de ViterbiAlgoritmo de ViterbiEjemplo desarrolladoEjemplo desarrollado

Page 23: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Cálculos Frecuentes en Cálculos Frecuentes en HMMsHMMs

3.-3.- Dado la secuencia de observablesDado la secuencia de observablesO ={OO ={O11OO22…O…Ot t } ,} ,

Estimar lo parámetros del HMM:Estimar lo parámetros del HMM:1.1. El estado inicial, El estado inicial, 2.2. La Matriz de transición de estados PLa Matriz de transición de estados P3.3. B y B y , que maximicen , que maximicen

4.4. La probabilidad de que cada estado S La probabilidad de que cada estado S i i emita emita cada observable cada observable O ={OO ={O11OO22…O…Ot t } , } ,

Solución Solución :: MMétodo de Baum-Welch étodo de Baum-Welch de de Estimación de Estimación de

parámetrosparámetros

Page 24: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

El Algoritmo de Baum-WelchEl Algoritmo de Baum-Welch Se asume un número finito de estados y de observablesSe asume un número finito de estados y de observables

Se dan un estado inicial Se dan un estado inicial SSii, la matriz de transición , la matriz de transición ppijij,y la ,y la probabilidad de emisión de observables probabilidad de emisión de observables bbii(k)(k) en algún en algún valor inicial. ( valor inicial. ( ESTO BAJO CIERTAS PERMISAS DE CADA ESTO BAJO CIERTAS PERMISAS DE CADA PROCESO A ESTUDIARPROCESO A ESTUDIAR ) )

Utilizando estos parámetros iniciales calculamos “nuevos Utilizando estos parámetros iniciales calculamos “nuevos

valores” de valores” de SS**ii, p, p**ijij, b, bii(k)(k)**..

Algoritmo muy complicado Algoritmo muy complicado basado en un basado en un metodos metodos estadístico estadístico iterativoiterativo

Page 25: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Condición inicial Condición inicial 1er resultado 1er resultado

1er resultado1er resultado 2do resultado 2do resultado

2do resultado 2do resultado 3er resultado 3er resultado

SS**ii, p, p**ijij, b, bii(k)(k)**.. Valores Reales.Valores Reales.

El proceso se detiene cuando la probabilidad ha convergido El proceso se detiene cuando la probabilidad ha convergido hacia cierto valorhacia cierto valor

Page 26: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

APLICACIONESAPLICACIONES

Page 27: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

MODELAMIENTO DE MODELAMIENTO DE FAMILIAS DE PROTEINASFAMILIAS DE PROTEINAS

Page 28: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

MODELAMIENTO DE MODELAMIENTO DE FAMILIAS DE PROTEINASFAMILIAS DE PROTEINAS

Se usa para: Se usa para:

Construcción de alineamiento Construcción de alineamiento múltiple. múltiple.

Determinar la familia de la Determinar la familia de la secuencia query.secuencia query.

Page 29: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

MODELO DE UNA FAMILIA DE PROTEINAS

m0 m1 m2 m3 m4

d1 d2 d3 d4

i0 i1 i2 i3 i4

m5

d5 d6

i5 i6 i7

m6 m7

d7

Page 30: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Modelamiento de familia Modelamiento de familia de proteínasde proteínas

EEn el modelo de n el modelo de HHMsHHMs de familia de la proteína la de familia de la proteína la transición (la flecha) de un estado de transición (la flecha) de un estado de emparejamiento a un estado de inserciónemparejamiento a un estado de inserción corresponde a un gap openingcorresponde a un gap opening y la transición de un y la transición de un estado de inserción sobre estado de inserción sobre sí mismo corresponde a la sí mismo corresponde a la multa de gap extention.multa de gap extention.

LLa alineación a alineación con elcon el uso del algoritmo de uso del algoritmo de la la programación dinámica y programación dinámica y BLASTBLAST son con toda son con toda seguridad seguridad certerascerteras, , para alineación de pares de para alineación de pares de secuencias;secuencias; pero pero,, para modelar a las familias con para modelar a las familias con grandes de sucesiones, o construcción de las grandes de sucesiones, o construcción de las alineaciones de muchas sucesiones, permite con alineaciones de muchas sucesiones, permite con eficaciaeficacia y flexibilidad.y flexibilidad.

Page 31: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

ALINEAMIENTO MULTIPLE DE ALINEAMIENTO MULTIPLE DE SECUENCIASSECUENCIAS

Page 32: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Alineamiento Múltiple de Alineamiento Múltiple de SecuenciasSecuencias

CAEFPDDH y CDAEFPDDH.CAEFPDDH y CDAEFPDDH. El camino mas favorable utilizando el El camino mas favorable utilizando el

algoritmo de Viterbi sería:algoritmo de Viterbi sería:

mm00mm11mm22mm33mm44dd55dd66mm77mm88mm99mm1010

C A E F D D HC A E F D D H

C D A E F P D D H C D A E F P D D H

mm00mm11ii11mm22mm33mm44dd55mm66mm77mm88mm99mm1010, , respectivamente.respectivamente.

Page 33: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Alineamiento Múltiple de Alineamiento Múltiple de SecuenciasSecuencias

Este seria el mejor alineamiento:Este seria el mejor alineamiento:

C–AEF–DDHC–AEF–DDH

CDAEFPDDHCDAEFPDDH

Suponemos que tenemos 5 secuencias:Suponemos que tenemos 5 secuencias:

CAEFTPAVHCAEFTPAVH

CKETTPADHCKETTPADH

CAETPDDHCAETPDDH

CAEFDDHCAEFDDH

CDAEFPDDHCDAEFPDDH

Page 34: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Alineamiento Múltiple de Alineamiento Múltiple de SecuenciasSecuencias

Los correspondientes caminos realizados Los correspondientes caminos realizados aplicando el algoritmo de Viterbi fueron:aplicando el algoritmo de Viterbi fueron:

mm00mm11mm22mm33mm44mm55mm66mm77mm88mm99mm1010,,

mm00mm11mm22mm33mm44mm55mm66mm77mm88mm99mm1010,,

mm00mm11mm22mm33dd44mm55mm66mm77mm88mm99mm1010,,

mm00mm11mm22mm33mm44dd55dd66mm77mm88mm99mm1010,,

mm00mm11ii11mm22mm33mm44dd55mm66mm77mm88mm99mm1010..

Page 35: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Alineamiento Múltiple de Alineamiento Múltiple de SecuenciasSecuencias

Los alineamientos múltiples son:Los alineamientos múltiples son:

C–AEFTPAVHC–AEFTPAVH

C–KETTPADHC–KETTPADH

C–AE–TPDDHC–AE–TPDDH

C–AEF– –DDHC–AEF– –DDH

CDAEF–PDDHCDAEF–PDDH

Page 36: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

PfamPfam

Una proteína tiene uno o mas dominios Una proteína tiene uno o mas dominios funcionales, las cuales son porciones que funcionales, las cuales son porciones que tienen una función esencial, la cual se resiste tienen una función esencial, la cual se resiste a la substitución de aminoácidos. a la substitución de aminoácidos.

Proteínas de diferentes familias , su porción Proteínas de diferentes familias , su porción altamente homóloga esta en 1 o mas altamente homóloga esta en 1 o mas dominios.dominios.

A partir de una proteína nueva obtenida, A partir de una proteína nueva obtenida, queremos anotar su secuencia.queremos anotar su secuencia.

Page 37: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

PfamPfam Para ello el punto de partida es buscar en Para ello el punto de partida es buscar en

BLAST.BLAST.

De todas la secuencias reportadas por el De todas la secuencias reportadas por el BLAST, escogemos la que tenga significante BLAST, escogemos la que tenga significante similitud con la secuencia query.similitud con la secuencia query.

Pfam determina dominios, similitud de Pfam determina dominios, similitud de secuencias y otras base de datos de secuencias y otras base de datos de secuencias de otras familias de proteínas.secuencias de otras familias de proteínas.

El uso de HMMs permite la caracterización El uso de HMMs permite la caracterización efectiva de muchos dominios.efectiva de muchos dominios.

Page 38: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Búsqueda de gen (Gene Búsqueda de gen (Gene finding)finding)

Secuencias genómicas de muchos millones de Secuencias genómicas de muchos millones de bases, tales secuencias consiste en la colección bases, tales secuencias consiste en la colección de genes separados por otros no funcionales.de genes separados por otros no funcionales.

Paso importante: encontrar estos genes en la Paso importante: encontrar estos genes en la secuencia.secuencia.

GENSCAN, buscador de genes, el cual es una GENSCAN, buscador de genes, el cual es una base sobre una generalización del modelo base sobre una generalización del modelo

semioculto de Markovsemioculto de Markov..

Page 39: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Modelo de Markov Modelo de Markov SemiocultoSemioculto

La probabilidad de las estancias del proceso La probabilidad de las estancias del proceso en este estado para n pasos es p en este estado para n pasos es p n-1n-1 (1-p). (1-p).

En el Modelo Oculto de Markov, supone la En el Modelo Oculto de Markov, supone la probabilidad de transición para cualquier probabilidad de transición para cualquier estado sobre si mismo es cero.estado sobre si mismo es cero.

Page 40: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Determinación de Segmentos Determinación de Segmentos Transmembrana con el Transmembrana con el

Modelo de Cadena MarkovModelo de Cadena Markov

Page 41: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.

Probable ferric reductase Probable ferric reductase transmembrane component transmembrane component (Ferric-chelate reductase).(Ferric-chelate reductase).

Código: P78588Código: P78588# aa: 669# aa: 669# segmentos TM: 7# segmentos TM: 7Secuencia Proteica:Secuencia Proteica:MTESKFHAKYDKIQAEFKTNGTEYAKMTTKSSSGSKTSTSASKSSKSTGSSNAMTESKFHAKYDKIQAEFKTNGTEYAKMTTKSSSGSKTSTSASKSSKSTGSSNASKSSTNAHGSNSSTSSTSSSSSKSGKGNSGTSTTETITTPLLIDYKKFTPYKDAYSKSSTNAHGSNSSTSSTSSSSSKSGKGNSGTSTTETITTPLLIDYKKFTPYKDAYQMSNNNFNLSINYGSGLLGYWAGILAIAIFANMIKKMFPSLTNNLSGSISNLFRKQMSNNNFNLSINYGSGLLGYWAGILAIAIFANMIKKMFPSLTNNLSGSISNLFRKHLFLPATFRKKKAQEFSIGVYGFFDGLIPTRLETIIVVIFVVLTGLFSALHIHHVKDHLFLPATFRKKKAQEFSIGVYGFFDGLIPTRLETIIVVIFVVLTGLFSALHIHHVKDNPQYATKNAELGHLIADRTGILGTFLIPLLILFGGRNNFLQWLTGWDFATFIMYNPQYATKNAELGHLIADRTGILGTFLIPLLILFGGRNNFLQWLTGWDFATFIMYHRWISRVDVLLIIVHAITFSVSDKATGKYKNRMKRDFMIWGTVSTICGGFILFQHRWISRVDVLLIIVHAITFSVSDKATGKYKNRMKRDFMIWGTVSTICGGFILFQAMLFFRRKCYEVFFLIHIVLVVFFVVGGYYHLESQGYGDFMWAAIAVWAFDRVAMLFFRRKCYEVFFLIHIVLVVFFVVGGYYHLESQGYGDFMWAAIAVWAFDRVVRLGRIFFFGARKATVSIKGDDTLKIEVPKPKYWKSVAGGHAFIHFLKPTLFLQSVRLGRIFFFGARKATVSIKGDDTLKIEVPKPKYWKSVAGGHAFIHFLKPTLFLQSHPFTFTTTESNDKIVLYAKIKNGITSNIAKYLSPLPGNTATIRVLVEGPYGEPSSAHPFTFTTTESNDKIVLYAKIKNGITSNIAKYLSPLPGNTATIRVLVEGPYGEPSSAGRNCKNVVFVAGGNGIPGIYSECVDLAKKSKNQSIKLIWIIRHWKSLSWFTEELGRNCKNVVFVAGGNGIPGIYSECVDLAKKSKNQSIKLIWIIRHWKSLSWFTEELEYLKKTNVQSTIYVTQPQDCSGLECFEHDVSFEKKSDEKDSVESSQYSLISNIKEYLKKTNVQSTIYVTQPQDCSGLECFEHDVSFEKKSDEKDSVESSQYSLISNIKQGLSHVEFIEGRPDISTQVEQEVKQADGAIGFVTCGHPAMVDELRFAVTQNLQGLSHVEFIEGRPDISTQVEQEVKQADGAIGFVTCGHPAMVDELRFAVTQNLNVSKHRVEYHEQLQTWANVSKHRVEYHEQLQTWA

Page 42: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.
Page 43: Hidden Markov Models Angélica Minaya Francesca Barletta Jeanette Velásquez Mónica Pajuelo Daniel Rueda.