Fungsi Aktivasi JST

advertisement
f(x)
x
• Secara khusus, fungsi aktivasi yang sama digunakan pada
semua model nuron dalam beberapa lapisan tertentu dari
jaringan syaraf, meskipun ini tidak diperlukan
• Dalam beberapa hal, sebuah fungsi aktivasi nonlinear
digunakan untuk mencapai keuntungan dari berbagai lapisan,
dibandingkan dengan kemampuan yang terbatas dari jaringan
satu lapisan (single layer nets), fungsi nonlinear diperlukan
• Fungsi linear memiliki nilai output yang sama dengan nilai
input
f(x)
Persamaan :
f(x) = x, untuk semua x
x
f(x)
1

x
• Jaringan satu lapisan sering menggunakan fungsi ini
untuk mengubah input yang masuk ke dalam jaringan
• Nilai variabel terhadap sebuah unit output berupa angka
biner (1 atau 0) atau tanda bipolar (1 atau -1)
Fungsi Undak Biner (Hard Limit) Jaringan dengan lapisan
tunggal sering menggunakan fungsi undak untuk
menkonversi input dari suatu variabel yang bernilai kontinu
ke suatu output biner . Fungsi hard limit dirumuskan :
f(x)
1
x
Jaringan dengan lapisan tunggal sering menggunakan
fungsi undak untuk menkonversi input dari suatu variabel
yang bernilai kontinu ke suatu output biner.
f(x)
1

x
• Persamaan :
1
f ( x) 
1  exp( x)
f ' ( x)  f ( x)[1  f ( x)]
 Fungsi sigmoid (kurva yang berbentuk seperti huruf s) adalah
fungsi aktivasi yang berguna
 Fungsi logistik dan fungsi tangen hiperbolik adalah fungsi yang
paling umum digunakan
 Fungsi ini secara khusus menguntungkan dalam penggunaan
jaringan syaraf yang dilatih dengan backpropagation, karena
hubungan yang sederhana diantara nilai fungsi pada suatu titik
dan nilai derivative pada titik itu mengurangi beban perhitungan
selama pelatihan
 Fungsi logistik sigmoid dengan jangkauan dari 0 ke 1 sering
digunakan sebagai fungsi aktivasi dari jaringan syaraf, dimana
nilai output yang diharapkan juga bernilai biner dan nilai
tersebut berada diantara interval 0 dan 1
f(x)
x
• Kondisi dimana jangkauan nilai yang cocok
dengan masalah tertentu yang paling umum
adalah dari -1 ke 1
• Persamaan :
g ( x)  2 f ( x)  1
2

1
1  exp( x)
1  exp( x)

1  exp( x)
g ' ( x) 

2
[1  q ( x)][1  g ( x)]
• Bipolar sigmoid berhubungan erat dengan fungsi
tangen hiperbolik yang juga sering digunakan
sebagai fungsi aktivasi ketika jangkauan yang
diharapkan dari nilai output diantara -1 dan 1
• Persamaan fungsi tangen hiperbolik:
exp( x )  exp(  x )
h( x ) 
exp( x )  exp(  x )
1  exp( 2 x )
h( x ) 
1  exp( 2 x )
h' ( x )  [1  h( x )][1  h ( x )]
Hampir sama dengan fungsi undak biner, hanya
saja output yang dihasilkan berupa 1, 0 atau-1
Fungsi yang menghasilkan output berupa
1, 0 atau -1
 Fungsi ini akan bernilai 0 jika inputnya kurang dari ½, dan akan bernilai 1 jika inputnya lebih dari ½.
 Sedangkan jika nilai input terletak antara -½ dan ½,
maka outputnya akan bernilai sama dengan nilai
input ditambah ½.
 Fungsi ini akan bernilai -1 jika inputnya kurang dari -1.
 Sedangkan jika nilai input terletak antara -1 dan 1, maka
outputnya akan bernilai sama dengan nilai inputnya.
Fungsi sigmoid biner digunakan untuk jaringan
syaraf yang dilatih dengan menggunakan metode
backpropagation. Memiliki nilai pada range 0
sampai1.
Output dari fungsi ini memiliki range antara
1 sampai -1
Download