TEMA 5: OTRAS ARQUITECTURAS....

45
1 AAC TEMA 5: OTRAS ARQUITECTURAS. NEUROCOMPUTADORES

Transcript of TEMA 5: OTRAS ARQUITECTURAS....

1

AAC

TEMA 5: OTRAS ARQUITECTURAS. NEUROCOMPUTADORES

2AAC

5.1. Introducción a los sistemas neuronales

Cuestión : ¿Por qué existen tareas que las máquinas no han logrado resolver con eficacia, a pesar del espectacular desarrollo tecnológico?

Arquitectura de Von Neumann: máquinas simbólicas

Neurocomputación y sistemas borrosos: forman parte de la IA; pretenden incorporar cierto tipo de inteligencia en sistemas de procesamiento y control

3AAC

Cerebro frente a computador convencional

La neurona: un procesador sencillo, lento y poco fiableLa potencia de cálculo reside en la cohabitación de millones de ellas, sus interconexiones y su procesamiento en paralelo.

CentralizadoAutoorganizadoTipo de control del proceso

10-9 s (1 GHz)10-2 s (100 Hz)Velocidad de proceso

Direcciones fijasDistribuidoAlmacenamiento del conocimiento

Muy escasaAmpliaTolerancia a fallos

10-6 J10-16 JEficiencia energética

Pocas104 por procesadorConexiones

Pocos1011 – 1014Número de procesadores

SecuencialParaleloEstilo de procesamiento

ComputadorCerebro

5.1. Introducción a los sistemas neuronales

4AAC

Sistemas neuronales artificiales (ANS): réplicas aproximadas de la estructura hardware del cerebro.No se pretende crear un cerebro artificial.El objetivo es mejorar el rendimiento en tareas propias de organismos biológicos: percepción, reconocimiento de formas, control, etc.Área multidisciplinar: Electrónica, Física, Matemáticas, Biología, etc.Excelentes resultados en ciertos ámbitos.

5.1. Introducción a los sistemas neuronales

5AAC

Modelo biológico

Una neurona se activa si la influencia combinada de sus entradas supera cierto umbral (hay sinapsis potenciadoras y otras inhibidoras).Las conexiones sinápticas poseen cierta plasticidad (la influencia de las sinapsis varía y se crean otras); esto es la base del aprendizaje y la memorización.

5.1. Introducción a los sistemas neuronales

Dendritas

Soma(10-80 µm)

Núcleo

Axón (100 µm–1 m)

Sinapsis

Presináptica Postsináptica

6AAC

Estructura jerárquica de un ANS:

5.2. Sistemas neuronales artificiales

ΣΣ

Σ

Σ

Σ

Neurona Capa Red Sistema neuronal

Parte algorítmica

Entr

adas S

alidas

7AAC

5.2. Sistemas neuronales artificiales

Modelo estándar de neurona artificial:

Σ f()

x1

x2

xj

xn -1

.

.

.

...

wi1

wi2

wij

winθi

Neurona i Entradas xj(t) Pesos sinápticos wij

Regla de propagación hi(t) = σ(wij , xj(t))yi

Función de activación (filtro) yi(t) = fi [ hi(t) ]

Umbral = θi : nível mínimo de disparo de la neurona (todo-nada)

Si hacemos wi0 = θi , x0 = -1, entonces)θxw(f(t)yj

jjijii ∑ −= )xw(f(t)yn

0jjijii ∑

=

=

Peso sináptico negativo: conexión inhibidora; positivos: conexión excitadora

Capa de entrada (sensorial): capa de neuronas que no poseen sinapsis de entrada

Capa de salida: capa de neuronas que no poseen sinapsis de salida

Capa oculta: capa que posee neuronas que no son de entrada ni de salida (mayor riqueza)

Pueden existir conexiones intercapa e intracapa (o laterales)

8AAC

Diferentes tipos de arquitecturas neuronales:Redes monocapa y multicapa (layered).Redes unidireccionales (feedforward) y recurrentes(feedback)Redes autoasociativas (A + ruido ⇒ A) y heteroasociativas (A ⇒ B)

Funciones de activación habituales:

5.2. Sistemas neuronales artificiales

[-1,+1]

{-1, +1}{0, +1}

[-∞,+∞]

Rango

y=xIdentidad

Lineal a tramos

y=signo(x)y=H(x)

Escalón (Heaviside)

GráficaFunción

Lx si 1,1LxL - si ,x

L- x si ,1- y

>++≤≤

<

⎪⎩

⎪⎨

⎧=

-L L

9AAC

5.2. Sistemas neuronales artificiales

Funciones de activación habituales:

2BxAey −=

[-1,+1]

[0,+1]

[0,+1]

[-1,+1]

Rango

y=A e-Bx2Gaussiana

y=A sen(ωx+ϕ)Sinusoidal

Sigmoidea

GráficaFunción

xx

xx

x

e-eee

y

e11

y

+=

+=

10AAC

Aprendizaje (entrenamiento): proceso, generalmente iterativo, que consigue el ajuste de los parámetros libres de la red neuronal, a partir de la estimulación por el entorno.

Se sigue una regla de aprendizaje basada en la optimización de una función de error o costeNiveles de aprendizaje:

1. Modelado de las sinapsis: ∆wij (t+1) = wij (t) +∆wij (t)

2. Creación/destrucción de neuronas.Tipos de aprendizaje (I):

1. Supervisado. Se proporciona a la red una serie de patrones junto con la salida deseada u objetivo; la red ajusta iterativamente los pesos hasta que su salida tiende a la deseada (estimación de relaciones entrada-salida).

2. No supervisado. Se proporciona a la red una serie de patrones sin adjuntar la respuesta deseada; la red estima regularidades en elconjunto de entradas, extrae rasgos comunes o agrupa patrones.

5.2. Sistemas neuronales artificiales

11AAC

AprendizajeTipos de aprendizaje (II):

3. Híbrido. Coexisten los tipos anteriores, normalmente en distintas capas (Ejemplo: redes de contra-propagación).

4. Reforzado. La salida deseada simplemente es un índice global del rendimiento de la red.

Recuerdo (ejecución): Una vez que el sistema ha sido entrenado, sus pesos y su estructura han quedado definidos, por lo que la red está preparada para procesar datos.

5.2. Sistemas neuronales artificiales

12AAC

Redes supervisadas: El PerceptrónModelo unidireccional, con una capa sensorial de n neuronas y otra de salida con m neuronas.

Las neuronas de entrada sólo envían información ({0, +1}) a las de salida.La función de activación es de tipo escalón

Una neurona tipo perceptrón permite discriminar entre dos clases linealmente separables.

5.2. Sistemas neuronales artificiales

mi1 i, ),θ-xw(f(t)y i

n

1jjijii ≤≤∀= ∑

=

mi1 i, ),θ-xwH(y i

n

1jjiji ≤≤∀= ∑

=

θ)-xwxH(wy 2211 +=⎩⎨⎧

<+≥+

=θxwxw si ,0θxwxw si ,1

y2211

2211

13AAC

Redes supervisadas: El PerceptrónUna neurona tipo perceptrón permite discriminar entre dos clases linealmente separables.

Ejemplo: Si w1 = w2 = -2, θ = -3, la función implementada es la NAND.Problema: Un simple perceptrón no puede representar funciones no separables linealmente (XOR).

5.2. Sistemas neuronales artificiales

⎩⎨⎧

<+≥+

=θxwxw si ,0θxwxw si ,1

y2211

2211

21

2

122211 w

θx

ww

x0θ-xwxw +−

=⇒=+

x2

x1

≥ θ (0 NAND)

x2

x1

<θ<θ

(0,0)

(1,1)

(0,1)

(1,0)

14AAC

Redes supervisadas: El PerceptrónAlgoritmo de aprendizaje por corrección de errores: los pesos se ajustan en proporción a la diferencia entre la salida actual de la red y la salida deseada.

Se basa en la regla de Hebb: “Cuando un axón presináptico causa la activación de cierta neurona postsináptica, la eficacia de la sinapsis que las relaciona se refuerza”.

∆wij = ε yi xj

ε = ritmo de aprendizaje ∈ (0, 1)

Conjunto p de patrones xµ, µ = 1, ..., p y salidas deseadas tµ

Entradas y salidas discretas {-1, 1} (ó {0, 1}).

∆wij (t) = εwij (t µi - y µi) x µj = εwij δ x µj

5.2. Sistemas neuronales artificiales

15AAC

Redes supervisadas: La AdalinaAdaline = Adaptive Linear NeuronSimilar el perceptrón pero de activación lineal; las entradas pueden ser continuas.

Utiliza la regla de Widrow-Hoff (o LMS –Least Mean Square).

Las actualizaciones de los pesos son continuas (discretas en el perceptrón)

La regla LMS se acerca asintóticamente a la solución (número finito de iteraciones en el perceptrón).

Se utiliza como filtro adaptativo para cancelar ruido en la transmisión de señales (satélite).

Madalina (Madaline = Many adalines): versión multicapa de la adalina.

5.2. Sistemas neuronales artificiales

mi1 i, ,θ-xw(t)y i

n

1jjiji ≤≤∀=∑

=

16AAC

El Perceptrón multicapa (MLP = Multi-Layer Perceptron)Surge al añadir capas ocultas a un perceptrón simple.Entradas a la red = xi ; salidas de la capa oculta = yi ; salidas de la capa final = zk ; salidas objetivo = tk

La función de activación es de tipo sigmoideoSe entrena mediante el algoritmodenominado Back Propagation (BP)o retropropagación de erroresLa idea del algoritmo es determinar cuál es la contribución de cada neurona al error global, y propagar dicho error hacia atrásactualizando los pesos entre las distintas capas de neuronas.Un MLP con una única capa oculta es un aproximador universal de funciones.

5.2. Sistemas neuronales artificiales

θ’k

wjiw’kj

θj

kjj

ji

jikjk θ'-)θ-xw( fw'z ∑ ∑=

17AAC

El Perceptrón multicapa (MLP = Multi-Layer Perceptron)Aproximación al algoritmo de retropropagación:

Inicializar pesos de la redMientras no_parar hacer

Para cada patrón de entrenamiento p hacerPara cada neurona de capa c en [2ª_capa .. última_capa]

yi = f(neti)

Para cada neurona de última_capa hacer

δi = (ti - yi) f ’(neti)Para cada neurona j de capa c en [última_capa - 1 .. 1ª_capa]

δj = f’(netj) Σ δiwji

Para cada neurona i de capa c+1wji = wji + ε δi yj

FinParaFinMientras

5.2. Sistemas neuronales artificiales

Bi i, ,xw(t)netA j

jjii ∈∀= ∑∈

18AAC

Redes neuronales no supervisadasSe proporciona a la red una serie de patrones sin adjuntar la respuesta deseada; la red estima regularidades en el conjunto deentradas, extrae rasgos comunes o agrupa patrones. Por tanto, las neuronas han de ser capaces de autoorganizarse.En general, son redes competitivas, en las que sólo una neurona o un grupo de vecinas consiguen activarse. La neurona más activa logrará inhibir a las demás (se les llama también redes WTA – Winner Takes All). La representación de la información en la corteza cerebral aparece con frecuencia organizada espacialmente (área somato-sensorial, mapas tonotópicos para los sonidos, etc.).

5.2. Sistemas neuronales artificiales

19AAC

Redes no supervisadas: Mapas Autoorganizados (SOM)Las neuronas se organizan de forma unidireccional de dos capas:Capa sensorial: m neuronas, una por cada entrada; cada neurona se etiqueta con un índice k (1 ≤ k ≤ m).La segunda capa realiza el procesamiento; consiste en general enuna estructura rectangular (a veces, uni- o tridimensional) de nxx ny neuronas que operan en paralelo. Cada neurona se etiqueta con un par de índices i = (i, j) (1 ≤ i ≤ nx , 1 ≤ j ≤ ny) que determina su localización espacial.Cada neurona k está conectada a cada neurona (i, j) con el peso sináptico wijkLas entradas son muestras del espacio sensorial, x(t) ∈ ℜm .

5.2. Sistemas neuronales artificiales

x(t)

wijk

Neurona k

Neurona (i,j)

20AAC

Redes no supervisadas: Mapas Autoorganizados (SOM)Cada neurona posee un vector de pesos o referencia wij(t) ∈ ℜm . En el modo normal, se calcula la similitud entre el vector de entradas x y el vector de referencia wij de cada neurona, declarando ganadora aquella que proporcione la mayor similitud. Dicha neurona indica el tipo de rasgo o patrón detectado.En el modo de aprendizaje, la neurona vencedora modifica sus pesos para que se asemejen más a x(t).Además, existe una función de vecindad h(), de modo que las neuronas en el entorno alrededor de la ganadora también actualizan sus pesos.

5.2. Sistemas neuronales artificiales

Gaussiana RectangularPipaSombrero mejicano

21AAC

Redes no supervisadas: Mapas Autoorganizados (SOM)Aproximación al algoritmo de entrenamiento:

Inicializar pesos sinápticosMientras no_parar hacer

Para cada patrón de entrenamiento x(t) hacerPara cada neurona i=(i, j) calcular distancia en paralelo:

FinParaDeterminar neurona ganadora g con menor distanciaActualizar pesos de g y de sus vecinas

wijk(t+1) = wijk(t) + α(t)·h(|i-g|, t)·(xk(t) - wijk(t))FinPara

FinMientras

El radio de vecindad y el ritmo de aprendizajeα(t) son monótonos decrecientes con t.

5.2. Sistemas neuronales artificiales

∑=

=n

1k

2kijkij

2 )x-(w),(d xw

22AAC

Redes no supervisadas: Mapas Autoorganizados (SOM)Variantes de los SOM:

Mapas de Fritzke y Growing Neural Gas: se empieza con un mapa de tamaño pequeño y se van añadiendo neuronas a medida que avanza el entrenamiento.Red de contrapropagación: modelo híbrido con tras capas (sensorial, oculta no supervisada y supervisada de salida).LVQ (Learning Vector Quantization): modelo supervisado con una capa de neuronas tipo SOM, sin vecindad; se premia las neuronas que clasifican correctamente un determinado patrón (aumentar peso) y castigar en sentido contrario (disminuir).

Aplicaciones de los SOM: Reconocimiento del habla; control de robots; monitorización de procesos industriales; ayuda al diseño de circuitos integrados; reconocimiento de patrones financieros, etc.

5.2. Sistemas neuronales artificiales

23AAC

Redes no supervisadas: Mapas Autoorganizados (SOM)Ejemplos gráficos:

Mapa fonético del finés Mapa semántico

5.2. Sistemas neuronales artificiales

24AAC

Otros tipos de redesRed de Hopfield.

Se trata de una red realimentada, no supervisada, con una única capa de neuronas y conectividad total entre ellas.

Funciona como memoria asociativa que puede almacenar patrones internamente para reconstruirlos si se presentan incompletos o con ruido. Las entradas y salidas son binarias ({0, 1} ó {-1, +1})

Supervisadas: Máquina de Boltzmann, BSB (Brain State in a Box), etc.No supervisadas: ART 1, 2, 3 (Adaptive Resonance Theory), BAM (Bidirectional Associative Memory), Neocognitrón, etc.

5.2. Sistemas neuronales artificiales

x1 xi xn

y1 yi yn

… …

1AAC

Soportes para la realización de redes neuronales:Simulación software. Económica pero de bajo rendimiento.Emulación hardware. Sistemas expresamente diseñados para emular ANS (basados en RISC, DSP, etc.): neuroaceleradores o neurocomputadores de propósito general.Implementación hardware. Realización física de la red neuronal: neurocomputadores de propósito específico. Basados en FPGA o mediante integración microelectrónica (ASIC llamados chips neuronales).

5.3. Neurocomputadores

Neurocomputadores

Chips estándar

Secuencial + acelerador

Neurochips

DigitalesMultiprocesador AnalógicosHíbridos

2AAC

Aspectos del soporte hardware:El sistema debe soportar un gran número de conexiones y un flujo elevado de transmisión de datos.Principalmente se utiliza tecnología electrónica; se comienza a experimentar con tecnologías optoelectrónicas y bioquímicas.Se realizan ASIC o bien se utilizan FPGA (diferencia en cuanto al ciclo de desarrollo y a la densidad de puertas) con lenguajes HDL.Los pesos se almacenan en registros o memorias.Inconveniente: se debe optimizar la representación de los datos y el almacenamiento de los pesos, pues una precisión elevada requeriría un área también muy elevada.Se estima que el aprendizaje requiere pesos con precisión de 14-18 bits mientras que el recuerdo requiere pesos de 6-10 bits.

Ejemplo: L-Neuro 1.0 de Philips usa pesos de 16 bits en el aprendizaje y de 4 u 8 bits en el recuerdo.

5.3. Neurocomputadores

3AAC

Aspectos del soporte hardware:Actualmente, el diseño digital VLSI es el predominante:

Inconveniente: los EP deben disponerse en un área limitada 2D y se conectan mediante un número limitado de capas.Ventajas:

Simplicidad.Alta relación señal-ruido (comparado con analógico).Circuitos fácilmente escalables (idem).Flexibilidad.Coste reducido.Aplicaciones CAD disponibles.Fiabilidad.Sumas fácilmente implementables.Funciones no lineales implementablesmediante circuitos o tablas.Elementos de almacenamiento.Generadores de números aleatorios.

5.3. Neurocomputadores

4AAC

Aspectos del soporte hardware:Dificultad en la clasificación de las implementaciones hardware:

Clasificación de Flynn. Muchos neurocomputadores son de tipo SIMD (arrays sistólicos, arrays de procesadores y procesadores vectoriales segmentados).Clasificación “cuántos y cuán complejos” EP:

Moderadamente paralelos (16-256 procesadores).Altamente paralelos (256-4096 procesadores).Masivamente paralelos (más de 4096 procesadores).La complejidad del EP se mide en base a la longitud de la palabra.

División en neuroaceleradores y neurocomputadores.Clasificación basada en 3 criterios:

Evidencia biológica (réplica de un sistema biológico; réplica de un nivel superior; sin réplica).Mapeado sobre hardware (orientado a red; orientado a neurona; orientado a sinapsis).Tecnología de implementación (digital; analógica; híbrida).

5.3. Neurocomputadores

5AAC

Aspectos del soporte hardware:Rendimiento del sistema:

La fase de recuerdo se evalúa en cuanto al número de conexiones procesadas por segundo (CPS).La fase de aprendizaje se evalúa en cuanto al número de conexiones actualizadas por segundo (CUPS).Son índices globales y muy poco representativos de distintos tipos de redes.Miden básicamente el tiempo de una MAC (básica en DSP) sin otros factores como la transferencia de datos.Otras unidades:

CPSPW: CPS Por Pesos; normalización de CPS por el número de pesos de la red.CPPS: Primitivas de Conexión Por Segundo; se multiplica CPS por los bits de precisión y por los bits de las entradas.

5.3. Neurocomputadores

6AAC

Aspectos del soporte hardware:Tipo de aprendizaje para el caso de redes multicapa:

Off-chip. El aprendizaje se realiza por medio de un computador con alta precisión, tras el cual los pesos se transfieren al chip. Éste sólo lleva a cabo la etapa de propagación hacia adelante (forward) del modo recuerdo.Chip-in-the-loop. El hardware neuronal se utiliza en el aprendizaje sólo en la propagación hacia adelante. El recálculo de los pesos se realiza off-chip, tras el cual se transfieren al chip tras cada iteración.On-chip. El aprendizaje se realiza por completo en el propio chip. El problema es la precisión empleada.

5.3. Neurocomputadores

7AAC

Emulación hardware: neuroaceleradores.Utilización de arquitecturas paralelas para trabajar con ANS.Se trata de diseñar un acelerador o coprocesador dependiente de un host, construido a partir de micros RISC, DSP, etc.Se utiliza un software de simulación apropiado para evaluar un ANS o desarrollar una aplicación práctica compleja.Permite trabajar prácticamente con cualquier tipo de red.Se trata de sistemas flexibles, pero que no explotan al máximo la capacidad de la red neuronal.La velocidad suele rondar los 10M CPS.Ejemplos:

SIGMA-1 de SAIC (1989) alcanza 11 MCUPS y 3.1M de EPsvirtuales e interconexiones. El host es un PC.ANZA Plus de HNC (1989); alcanza 1,8 MCUPS y 6 MCPS, 1M de EPs virtuales, 1.5M de interconexiones. Un PC actúa como host. Posee micro y coprocesador PF de Motorola.

5.3. Neurocomputadores

8AAC

Emulación hardware: neuroaceleradores.Ejemplos:

Balboa 860 de HNC (1991), basada en el micro Intel i860. Disponible para PC y para estaciones SUN. Alcanza 25 MCPS y 9 MCUPS.Serie NT6000 de NT (1993). Pueden conectarse a sistemas E/S tanto analógicos como digitales. El NT6000st y el -hs usan el PC como host y están equipados con un DSP TMS320 y un NISP (Neural Instruction Set Processor); alcanzan 2 MCPS. Los modelos neuronales implementables son el BP y los Mapas Autoorganizativos.NEP de IBM (1987). El Network Emulation Processor es un entorno de emulación, cuyo hardware es un DSP TMS320, memoria estática y dinámica e interfaz con el PC; es un sistema modular de forma que se pueden conectar hasta 256 tarjetas. Cada NEP simula hasta 2000 EPs virtuales y 16000 conexiones, con 30-50 CUPS.

5.3. Neurocomputadores

9AAC

Emulación hardware: neuroaceleradores.Ejemplos:

NBS de Micro Devices (1990). El Neural Bit Slice MD1220 contiene 8 nodos, cada uno con 15 entradas sinápticas cableadas, ampliables hasta 256 con hardware adicional. Los pesos se almacenan externamente, con lo cual el aprendizaje es off-chip. Se pueden interconectar directamente varias tarjetas, y todas ellas a su vez al bus de la CPU del PC. Alcanza 10 MCPS.Neuro Turbo I del Nagoya Institute of Technology (1989). Contiene 4 DSP y se conecta a un ordenador personal NEC PC98.

5.3. Neurocomputadores

10AAC

Neurocomputadores construidos a partir de procesadores de propósito general:

Nunca alcanzarán la máxima eficiencia, pero son relativamente baratos y flexibles. Se suelen utilizar DSP o RISC.Ejemplos:

Mark III y IV de TRW-HNC (1989). La arquitectura es BBA ó de bus de difusión (broadcast). El Mark III utiliza 8 micros 68010 de Motorola; implementa 8000 EPs y 480000 conexiones, y alcanza 380000 CPS.El Mark IV puede implementar 262144 EPs, 5.5M conexionesy alcanza 5 MCPS; incluye DSP de 16 bits TMS32020.

5.3. Neurocomputadores

. . .

ALU

Reg

istr

os

Peso

s

ALU

Reg

istr

os

Peso

s

ALU

Reg

istr

os

Peso

s

11AAC

Neurocomputadores construidos a partir de procesadores de propósito general:

Ejemplos:Sandy/8 de Fujitsu (1990). Es un prototipo para un arquitectura sistólica en array (SSAA –Systolic Square Array Architecture). Posee256 DSPs TMS320C30; se estima que alcanza 13 MCUPS en BP. Elprototipo se conecta a un SUN-3.GigaConNection (GCN, 1990) de Sony. Consta de 128 PE basadasen el Intel i860, en una malla 2D.Se estima que llega a 1 GCUPS.BSP400 (1991) de Brain StyleProcessor. Utiliza micros MC68701 de 8 bits; la baja velocidad de éstos hace que sólo se alcance 6.4 MCUPS con 400 procesadores.

5.3. Neurocomputadores

Memoria de pesos externa

12AAC

Neurocomputadores construidos a partir de procesadores de propósito general:

Ejemplos:Ring Array Processor (RAP, 1990) de ICSI. Consta de 4-40 DSPsTMS320C30 conectados en anillo a través de PGA de Xilinx. Cada placa puede conectarse a un host, y puede alcanzar 57 MCPS en la propagación hacia adelante en un perceptrónmulticapa, mientras que en la fase BP llega a 13.2 MCPS.Multiprocessor System with Intelligent Communication(MUSIC, 1992), del SwissFederal Institute ofTechnology. Cada placa consta de 3 DSP 96002 de Motorola, pudiendo conectarhasta 21 de ellas. Para un perceptrón de dos capas se consigue 817 MCPS y 330 MCUPS.

5.3. Neurocomputadores

Memoria de pesos externa

FIFO externa

13AAC

Neurocomputadores construidos a partir de neurochips:Se diseñan circuitos específicos para implementar las funciones neuronales.La velocidad aumenta en dos órdenes de magnitud.Ejemplos:

SYNAPSE-I y SYNAPSE-X (SYnthesis of Neural Algorithms on a Parallel Systolic Engine, 1990) de Siemens. Es una matriz sistólica 2x4 de chips MA16; éstos implementan operaciones típicas de diversos modelos neuronales (producto matriz-vector, búsqueda de máximo, etc. La configuración estándar consta de 8 MA16, y alcanza 5100 MCPS y 133 MCUPS.

5.3. Neurocomputadores

14AAC

Neurocomputadores construidos a partir de neurochips:Ejemplos:

CNAPS (Connected Network of Adaptive Processors, 1991) de Adaptive Solutions. Es un array 1D SIMD de nodos, conectados a través de buses broadcast. El chip elemental es el X1, que soporta aprendizaje on-chip, y 80 de ellos (64 útiles) se agrupan en el N64000. El sistema estándar consta de 4 chips y un secuenciador de microcódigo; alcanza 5700 MCPS y 1460 MCUPS. Los autores dicen que es el más veloz y que todos los modelos neuronales testeados pudieron ser mapeados.

5.3. Neurocomputadores

15AAC

Neurocomputadores construidos a partir de neurochips:Ejemplos:

SNAP (SIMD Neurocomputer Array Processor, 1991) de HNC. Toma como chip básico el HNC 100 NAP, que consta de 4 células aritméticas en anillo con aritmética PF IEEE de 32 bits. Cada placa SNAP consta de 4 chips.El SNAP-32 posee dos placas (32 EPs), y puede alcanzar 500 MCPS y 128 MCUPS; el SNAP-64 posee 4 placas (64 EPs).

5.3. Neurocomputadores

16AAC

Neurocomputadores construidos a partir de neurochips:Ejemplos:

LNeuro 1.0 (Learning Neurochip, 1991) de Philips. El chip implementa 32 neuronas de entrada y 16 de salida; posee aprendizaje on-chip. Se pueden conectar modularmente varios chips. Una configuración con 4 placas y 16 chips alcanza 19 MCPS y 4.2 MCUPS.Su sucesor es el LNeuro 2.3, que consta de 12 DSP, un procesador RISC y unidades para proceso escalar y vectorial. El rendimiento máximo estimado es de 1380 MCUPS y 1925 MCPS. Puede implementar distintos modelos neuronales: BP, mapas autoorganizativos, etc.Mantra I (1991) del Swiss Federal Institute of Technology. Estáconstruido con chips GENES (Generic Element for Neuro-Emulator Systolic arrays) que realizan productos vector-matriz. La configuración en array de 40x40 chips alcanza 500 MCPS y 160 MCUPS.

5.3. Neurocomputadores

17AAC

Neurocomputadores construidos a partir de neurochips:Ejemplos:

WSI (Wafer Scale Integration, 1991) de Hitachi. Un wafer posee 144 neuronas, y 8 de éstos se agrupan para lograr 1152 nodos que permiten aprendizaje on-chip. Alcanza 2300 MCUPS en red multicapa con BP.ZISC (Zero Instruction Set Computer, 1992) de Intel. Posee 36 neuronas con 64 entradas de 8 bits, y permite aprendizaje on-chip. Se pueden conectar modularmente varios chips. Están diseñados especialmente para reconocimiento y clasificación en tiempo real y a bajo coste.HANNIBAL (Hardware Architecture for Neural NetworksImplementating Backpropagation Algorithm Learning, 1991) de British Telecom. Cada chip contiene 8 EP y alcanza 160 MCPS.

5.3. Neurocomputadores

18AAC

Neurocomputadores a partir de neurochips analógicos:ETANN (Electrically Trainable Analog Neural Network, 1991) de Intel. Cada chip contiene 64 neuronas y 10240 sinapsis. Alcanza 2 GCPS, y pueden conectarse hasta 8 de éstos.Otros: Mod2, Fully Analog Chip,etc.

Neurocomputadores híbridos:ANNA (Analog Neural NetworkArithmetic and logic unit, 1992) de AT&T. Alcanza entre 1000 y 2000 MCPS.

5.3. Neurocomputadores

19AAC

5.4. Aplicaciones de los SNA

Finanzas.Predicción de índices Detección de fraudes. Riesgo crediticioPredicción de la rentabilidad de acciones

NegociosMarketing Venta cruzada Campañas de venta

Tratamiento de textos y procesamiento de formasReconocimiento de caracteres impresos mecánicamente. Reconocimiento de gráficos. Reconocimiento de caracteres escritos a mano. Reconocimiento de escritura manual cursiva.

20AAC

5.4. Aplicaciones de los SNA

AlimentaciónAnálisis de olor y aroma. Perfilamiento de clientes en función de la compra. Desarrollo de productos. Control de Calidad.

Energía.Predicción consumo eléctrico Distribución recursos hidráulicos para la producción eléctrica Predicción consumo de gas ciudad

Industria manufacturera.Control de procesos. Control de calidad. Control de robots.

21AAC

5.4. Aplicaciones de los SNA

Medicina y saludAyuda al diagnostico. Análisis de Imágenes. Desarrollo de medicamentos. Distribución de recursos.

Ciencia e Ingeniería.Ingeniería Química. Ingeniería Eléctrica. Climatología.

Transportes y ComunicacionesOptimización de rutas. Optimización en la distribución de recursos

……….