REDES NEURONALES Aprendizaje Asociativo
Transcript of REDES NEURONALES Aprendizaje Asociativo
![Page 1: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/1.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 1
![Page 2: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/2.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 2
¿Qué es una Asociación? • Es cualquier relación entre la
entrada de un sistema y su salida de tal forma que cuando el patrón A se presenta al sistema este responderá con un patrón B.
![Page 3: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/3.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 3
Estimulo / Respuesta
• Cuando dos patrones son relacionados por una asociación, el patrón de entrada es conocido como estimulo y el patrón de salida referido como respuesta.
![Page 4: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/4.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 4
Estímulo• Los pensamientos son activados
por estimulación externa• El mismo pensamiento es
estimulado por un infinito numero de factores
• Si existe suficiente estimulación se piensa en un concepto
![Page 5: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/5.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 5
Estímulos /Respuesta
Just Do it...
Soy totalmente Soy totalmente Palacio...Palacio...
A que no puedes comer solo una...
En su cuenta se va dar cuenta...
Duermes o descansas...
Con toda confianza es...
![Page 6: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/6.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 6
Estímulos/ Respuesta
![Page 7: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/7.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 7
Los Pensamientos
• Los pensamientos permanecen aun después de que la estimulación se ha ido...
• El factor olvido comienza a operar...
![Page 8: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/8.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 8
Condicionamiento Clásico
• Ivan Petrovich Pavlov (1849-1936)
• Fisiología, Psicopatología animal,
• Reflejos condicionados.
• Premio novel en fisiología (1904)
![Page 9: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/9.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 9
Aprendizaje Asociativo Pavloviano/clasico
Condicionamiento– comida (E. No
Condicionado)– Salivación a la comida
(Respuesta)– campana (E.
Condicionado)– Salivación al oír la
campana (Respuesta)
![Page 10: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/10.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 10
Condicionamiento• C. Observacional: copiar acciones de otros,
“lo que el mono vee, es lo que hace”
• C. Operacional: Involucra una acción y una respuesta. “aprieta el boton y obten comida”.
• C. Clasico: Involucra un estímulo y una respuesta (I. Pavlov)
![Page 11: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/11.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 11
Reglas del Aprendizaje Asociativo
•Regla de Hebb–Regla de Hebb con degradación
•Regla de la Red INSTAR•Regla de la red OUTSTAR•Regla de Kohonen
![Page 12: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/12.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 12
Aprendizaje Hebbiano
• Donald O. Hebb (1904-1985)
• Padre de Psicobiologia Cognoscitiva
• The Organization of Behaviour (1942)
![Page 13: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/13.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 13
Postulado de Hebb
• “Cuando un axón de una neurona A esta suficientemente cerca para excitar a una neurona B, y toma parte en su activación repetidamente o persistentemente, ocurre un crecimiento o cambio metabólico en una o en ambas celdas, de tal forma que la celda A se vuelve mas eficiente al disparar B”
The Organization of Behavior (1949)
![Page 14: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/14.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 14
Lo que se traduce en ...• Si dos neuronas en ambos lados de una
sinapsis (conexión) son activadas simultáneamente, entonces la fuerza de la sipnasis es selectivamente incrementada (el peso w aumenta).
• Si dos neuronas en ambos lados de una sinapsis son activadas asincronamente, entonces la sinapsis es selectivamente debilitada o eliminada.
![Page 15: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/15.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 15
– Hebb propuso la primera regla de aprendizaje neuronal en 1943. Su idea fue que dos neuronas cuya salida fuere alta al mismo tiempo deberían desarrollar una fuerte conexión entre ellas.
• Limitaciones
– Esta regla no tiene un mecanismo para decrementar los pesos o hacerlos estables. El resultado es que los pesos crecen indefinidamente.
Descripción
![Page 16: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/16.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 16
Regla de Hebb No supervisada
• Incrementa justamente el peso Wij entre la entrada de la neurona Pj y la salida ai en proporción a su producto.
Donde: Es la razón de aprendizaje
Toldnew apWW
![Page 17: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/17.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 17
Red Asociativa Simple
p1 stimulus0 no stimulus
=
a1 response0 no response
=
)( bwphardlima
![Page 18: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/18.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 18
Asociador de Frutas (Bananas)
p0 1 shape detected0 shape not detected
= p1 smell detected0 smell not detected
=
Estimulo No condicionado Estimulo Condicionado
![Page 19: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/19.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 19
Regla de Hebb Autosupervisada
Forma Vectorial:
Secuencia de entrenamiento:
)()()1()( qpqaqWqW Tjiijij
)()()1()( qpqaqWqW T
)(,),2(),1( Qppp
![Page 20: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/20.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 20
Ejemplo 1: Reconocimiento de Frutas
Pesos Iniciales:
Secuencia de Entrenamiento:
= 1
0)0(,10 ww
1)1(,0)1(0 pp
1)2(,1)2(0 pp
)()()1()( qpqaqwqw
![Page 21: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/21.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 21
Limitantes en la Regla de Hebb
• Los pesos crecen arbitrariamente grandes
• No tiene algún mecanismo para disminuirlo.
0 10 20 300
10
20
30
![Page 22: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/22.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 22
– La regla de Hebb pura permite construir asociaciones. Sin embargo, esta no proporciona algún mecanismo para olvidar o para limitar el tamaño de los pesos.
– Al agregar la razón de degradación a la regla de Hebb ambos efectos son logrados.
Regla de Hebb con degradación
![Page 23: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/23.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 23
– La degradación se implementa agregando un termino extra en la ecuación de la actualización de pesos.
– El termino es negativo y proporcional a los actuales pesos sinapticos.
– Este parámetro toma valores entre cero y uno.
Regla de Hebb con degradación
![Page 24: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/24.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 24
Regla de Hebb con Degradación
• Esta regla mejora a la anterior al degradar W.
• Donde: es la razón de degradación; constante positiva con valores entre 0 y 1. Esta constante evita que W crezca sin limite.
)()()1()1()( qpqaqWqW T
![Page 25: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/25.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 25
Razón de Degradación • Si tiende a 1; La ley de aprendizaje
olvida rápidamente las entradas anteriores y recuerda los patrones más recientes
• El valor máximo de la matriz de pesos es:
Se requiere que el estimulo sea repetido o la asociación se ira perdiendo
max
ijWEsta impide que la matriz de pesos crezca sin limite
![Page 26: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/26.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 26
Regla de Hebb con Degradación
0 10 20 300
2
4
6
8
10
![Page 27: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/27.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 27
Ejemplo 2: Asociador de Bananas
Primera Iteración (falla la señal):
w 1 w 0 a 1 p 1 0.1w 0 –+ 0 0 1 0.1 0 –+ 0= = =
w 2 w 1 a 2 p 2 0.1w 1 –+ 0 1 1 0.1 0 –+ 1= = =
= 0.1 = 1
)5.0)1()0()1(()1( 00 pwpwhardlima
0)5.01001()1( hardlima
No responde :(
![Page 28: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/28.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 28
Ejemplo 2: Asociador de Bananas
• Segunda Iteración (señal activa):
Responde :)
w 1 w 0 a 1 p 1 0.1w 0 –+ 0 0 1 0.1 0 –+ 0= = =
)5.0)2()1()2(()2( 00 pwpwhardlima
1)5.01011()2( hardlima Banana
)1(1.0)2()2()1()2( wpaww
1)0(1.0110)2( w
![Page 29: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/29.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 29
El Problema de la regla de Hebb con degradación
Si ai = 0, entonces
Si = 0, se transforma
0 10 20 300
1
2
3
La asociación se anulara si el estimulo nos se presenta ocasionalmente
Por lo tanto el el peso decae en 10% en cada iteración cuando no hay estimulo
)1()9.0()( qwqw ijij
)1()1()( qwqw ijij
![Page 30: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/30.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 30
Regla INSTAR
![Page 31: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/31.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 31
Red INSTAR
• Reconocimiento de patrones
• Similar arquitectura al perceptrón
• Realiza distintas funciones con diferente análisis
![Page 32: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/32.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 32
Regla INSTAR• Un problema con la regla de Hebb
con degradación es que requiere que el estimulo se repita o la asociación se ira perdiendo.
• La regla INSTAR minimiza el olvido
• Proporciona vectores de pesos normalizados si los vectores de entrada están normalizados
In this configuration the to neuron responds to a pattern of the from neuron
![Page 33: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/33.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 33
• La regla INSTAR permite a una neurona aprender un nuevo vector mediante el ajuste de sus pesos equivalente a la entrada actual con una razón proporcional a la salida de la neurona.
• Asi, cualquier circunstancia que cause que una INSTAR tenga un alto resultado de salida en el aprendizaje de la INSTAR del vector actual en sus entradas.
Descripción
![Page 34: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/34.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 34
• Posteriormente, la presentación de la misma entrada causara que la instar tenga una salida significativa. Notese que esto causara que el aprendizaje se incremente de nuevo pero que los pesos serán re entrenados al mismo vector de entrada.
• De esta manera el aprendizaje es estable.
![Page 35: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/35.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 35
Regla INSTAR
• La regla solo modifica W cuando la neurona esta activa
• Si ai(q) = 1
)1()()()1()( qWqpqaqWqW T
)()1()1()( qpqWqW
Se considera
![Page 36: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/36.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 36
Representación Gráfica de la Regla INSTAR
• Cuando la INSTAR esta activa el vector de pesos se mueve hacia el vector de entrada.
• La distancia en que se mueve el vector de pesos depende de
![Page 37: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/37.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 37
Representación Gráfica de la Regla INSTAR
• Si = 0 ; el nuevo vector de pesos es igual al anterior (no se mueve)
• si = 1 ; el nuevo vector de pesos es igual al vector de entrada (máximo movimiento)
![Page 38: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/38.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 38
Representación Gráfica de la Regla INSTAR
• Si = 0.5 el vector de pesos se encuentra al mitad entre el vector anterior de pesos y el vector de entrada.
![Page 39: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/39.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 39
Ejemplo 1: INSTAR
p0 1 orange detected visually
0 orange not detected
=
pshapetex ture
weight
=
Clasificador de Frutas
![Page 40: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/40.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 40
Diagrama de la red
![Page 41: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/41.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 41
Regla de KOHONEN
![Page 42: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/42.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 42
Regla de Kohonen
)]1()([)1()( qWqpqWqW
La regla de Kohonen permite a una neurona almacenar los vectores de entrada de tal forma que este pueda ser reconocido después. Mediante el ajuste de los pesos de una neurona equivalente a su vector de entrada actual.
![Page 43: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/43.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 43
–Note que para una capa de neuronas con salidas restringidas a uno o cero, el aplicar la regla INSTAR es equivalente a aplicar la regla de Kohonen a neuronas con salida uno. En estos casos, la regla de Kohonen es mas eficiente.
![Page 44: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/44.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 44
Regla OUTSTAR
![Page 45: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/45.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 45
RED OUTSTAR
In this configuration the from neuron activates a pattern of the to neurons
![Page 46: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/46.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 46
Regla OUTSTAR
• Regla OUTSTAR
)()]1()([)1()( qpqWqaqWqW
![Page 47: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/47.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 47
• Los pesos de una capa OUTSTAR se pueden pensar como una memoria a largo plazo de tantos vectores como entradas tenga la capa . A menudo las capas OUTSTAR son lineales. Si Este es el caso, el ajuste de una sola entrada de la capa OUTSTAR a uno resulta en que la entrada a la red (y por lo tanto la salida) de la capa se haga equivalente a los pesos de la entrada activada.
Descripción
![Page 48: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/48.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 48
• Así, el vector almacenado en los pesos de entrada puede ser regresado al activar esa entrada. La regla de aprendizaje de la OUTSTAR permite a los pesos de entrada aprender el vector en la capa lineal de salida, cada vez que la entrada tome un valor grande.
![Page 49: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/49.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 49
Ejemplo 1: OUTSTAR
W0
1 0 0
0 1 00 0 1
=
p0
shape
tex tureweight
=p
1 if a pineapple can be seen0 otherwise
=ppi neap ple
1–1–
1
=
)( 00 WppWsatlinsa
![Page 50: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/50.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 50
Red OUTSTAR del ejemplo
![Page 51: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/51.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 51
Funciones del Aprendizaje Asociativo
MATLAB / NEURAL NETWORK TOOLBOX
![Page 52: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/52.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 52
Regla de Aprendizaje Hebbiana
• dW = learnh (p, a, lr);
• W = W + dW;
• donde:
• lr es la razón de aprendizaje ()
![Page 53: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/53.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 53
Regla de Aprendizaje Hebbiana con Degradación
• dW = learnhd (W, p, a, lr, dr);• W = W + dW;
• donde:
• lr es la razón de aprendizaje ()
• dr es la razón de degradación ()
![Page 54: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/54.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 54
Regla de Aprendizaje INSTAR
• dW = learnis (W, p, a, lr);
• W = W + dW;
• donde:
• lr es la razón de aprendizaje
![Page 55: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/55.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 55
Regla de Aprendizaje de KOHONEN
• a = comp (-dist (W,p));
• dW = learnk (W, p, a, lr);
• W = W + dW;
• donde:
• lr es la razón de aprendizaje
![Page 56: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/56.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 56
Regla de Aprendizaje OUTSTAR
• a = purelin (w*p);
• dW = learnos (W, a, p, lr);
• W = W + dW;
• donde:
• lr es la razón de aprendizaje
![Page 57: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/57.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 57
Dudas ???
![Page 58: REDES NEURONALES Aprendizaje Asociativo](https://reader036.fdocument.pub/reader036/viewer/2022081416/55503e78b4c9058f768b4821/html5/thumbnails/58.jpg)
FEBRERO DE 2003 M en C. José Luis Calderón O. 58
Hasta la próxima !!!