BIDERCTIONAL ASSOCIATIVE MEMORY.docx
-
Upload
adityo-mursitantyo -
Category
Documents
-
view
73 -
download
2
description
Transcript of BIDERCTIONAL ASSOCIATIVE MEMORY.docx
BIDERCTIONAL ASSOCIATIVE MEMORY (BAM)
Oleh:
Adityo Mursitantyo (1108255003)
Jurusan Fisika
Fakultas Matematika dan Ilmu Pengetahuan Alam
Universitas Udayana
2012
Bidirectional Associative Memory yang yang biasanya sering disebut
dengan BAM adalah jenis jaringan saraf berulang. BAM diperkenalkan oleh
Bart Kosko pada tahun 1988. Pengertian Bidirectional Associative Memory
(BAM) itu sendiri adalah suatu jaringan memory assosiative yang dapat
menyimpan sekumpulan pola dengan cara menjumlahkan matriks korelasi
bipolar. BAM sebagai model ‘neural networks’ memiliki kelebihan yaitu dapat
memroses input yang tak lengkap (incomplete input atau input with noise).
Adapun kelemahan BAM adalah terletak pada kapasitas memori yang sangat
kecil.
Arsitektur BAM terdiri dari 2 lapisan yg dihubungkan oleh lintasan
koneksi bobot. Jaringan akan beriterasi, mengirimkan sinyal pulang pergi antara
2 lapisan sampai semua neuron menjadi stabil (semua aktivasi neuron konstan).
BAM menyimpan pola pelatihan dalan matrik n x m yang merupakan perkalian
dari vektor input dan target pelatihan (outer product).
Gambar 1. Arsitektur Bidirectional Associative Memory (BAM)
Pada arsitektur Bidirectional Associative Memory (BAM), arsitektur
jaringan ini terdiri dari dua lapisan neuron yaitu, input dan output. Informasi dari
jaringan ini bisa masuk dua arah (dari input ke output dan kembali dari output ke
input). Masing-masing lapisan tersebut dihubungkan dengan vektor bobotnya.
Iterasi jaringan dilakukan dengan pengiriman sinyal keluar dan kembali diantara
kedua lapisan sehingga semua neuron yang menyusun jaringan memiliki nilai
yang seimbang.
Pada jaringan Bidirectional Associative Memory (BAM) ini interaksi
antara kedua lapisan terjadi secara bidirectional yaitu :
1. Jika jaringan mengirimkan sinyal dari X-layer ke Y-layer maka bobot
jaringan dituliskan sebagai vektor bentuk W.
2. Jika jaringan mengirimkan sinyal dari Y-layer ke X-layer maka bobot
jaringan dituliskan sebagai vektor bentuk WT.
Algoritma Jaringan BAM
Algoritma Jaringan syaraf tiruan BAM adalah sebagai berikut :
Langkah-0 : Inisialisasi bobot untuk disimpan pada P vektor
Langkah-1 : Untuk masing-masing masukan, lakukan langkah 2- 6:
Langkah-2a : Berikan pola masukan x pada X-layer (dengan
penyettingan aktivasi pada pola masukan X
terlebih dahulu).
Langkah-2b : Berikan pola masukan y pada Y-layer (dengan
pemberian nilai yang lain dari pola masukan X).
Langkah-3 : Saat nilai aktivasi tidak dapat ditemukan, lakukan
langkah 4-6.
Langkah-4 : Perbaharui aktivasi pada unit neuron Y-layer,
dengan cara :
Hitung jaringan input : Y_inj =
Hitung aktivasi: yj = f (Y_inj)
Kemudian kirim sinyal ke X-layer.
Langkah-5 : Perbaharui aktivasi pada unit neuron X-layer, dengan cara :
Hitung jaringan input : X_inj =
Hitung aktivasi: Xi = f(X_inj)
Kemudian kirim sinyal ke Y-layer.
Langkah-6 : Lakukan test kembali. Jika vektor aktivasi x dan y mempunyai
nilai yang seimbang, maka hentikan proses test, jika tidak lakukan
kembali.
Jenis Jaringan Syaraf Tiruan BAM
1. BAM Diskret
Pada BAM Diskret ada 2 kemungkinan tipe data, yaitu biner dan bipolar.
Matriks bobot awal dibuat sedemikian rupa sehingga dapat menyimpan
pasangan vektor input dan vektor output s(p)-t(p), dengan p = 1, 2, 3, ..., P.
• Untuk Vektor input biner, matriks bobot ditentukan sebagai berikut :
fungsi aktivasi yang digunakan adalah :
fungsi aktivasi untuk Y – layer,
1; jika y_inj > 0
yj = yj; jika y_inj = 0
0; jika y_inj < 0
dan fungsi aktivasi untuk X – layer,
1; jika x_ini > 0
xi = xi; jika x_ini = 0
0; jika x_ini < 0
• Sedangkan untuk vektor input bipolar, matriks bobot ditentukan sebagai :
fungsi aktivasi yang digunakan adalah :
fungsi aktivasi untuk Y – layer
1; jika y_inj > θ
yj = yj; jika y_inj = θ
-1; jika y_inj < θ
dan fungsi aktivasi untuk X – layer,
1; jika x_ini > θ
xi = xi; jika x_ini = θ
-1; jika x_ini < θ
2. BAM Kontinyu
BAM kontinyu akan mentransformasikan input secara lebih halus dan
kontinyu ke kawasan output dengan nilai yang terletak pada range [0,1]. Fungsi
aktivasi yang digunakan adalah fungsi sigmoid.
Untuk input biner vektor (s(p), t(p)), p = 1,2,....p, berat ditentukan oleh
rumus tersebut
Fungsi aktivasi sigmoid logistic
Dimana bias dimasukkan dalam menghitung net input ke setiap unit
Dan sesuai rumus berlaku untuk unit X-layer.