f(x) x • Secara khusus, fungsi aktivasi yang sama digunakan pada semua model nuron dalam beberapa lapisan tertentu dari jaringan syaraf, meskipun ini tidak diperlukan • Dalam beberapa hal, sebuah fungsi aktivasi nonlinear digunakan untuk mencapai keuntungan dari berbagai lapisan, dibandingkan dengan kemampuan yang terbatas dari jaringan satu lapisan (single layer nets), fungsi nonlinear diperlukan • Fungsi linear memiliki nilai output yang sama dengan nilai input f(x) Persamaan : f(x) = x, untuk semua x x f(x) 1 x • Jaringan satu lapisan sering menggunakan fungsi ini untuk mengubah input yang masuk ke dalam jaringan • Nilai variabel terhadap sebuah unit output berupa angka biner (1 atau 0) atau tanda bipolar (1 atau -1) Fungsi Undak Biner (Hard Limit) Jaringan dengan lapisan tunggal sering menggunakan fungsi undak untuk menkonversi input dari suatu variabel yang bernilai kontinu ke suatu output biner . Fungsi hard limit dirumuskan : f(x) 1 x Jaringan dengan lapisan tunggal sering menggunakan fungsi undak untuk menkonversi input dari suatu variabel yang bernilai kontinu ke suatu output biner. f(x) 1 x • Persamaan : 1 f ( x) 1 exp( x) f ' ( x) f ( x)[1 f ( x)] Fungsi sigmoid (kurva yang berbentuk seperti huruf s) adalah fungsi aktivasi yang berguna Fungsi logistik dan fungsi tangen hiperbolik adalah fungsi yang paling umum digunakan Fungsi ini secara khusus menguntungkan dalam penggunaan jaringan syaraf yang dilatih dengan backpropagation, karena hubungan yang sederhana diantara nilai fungsi pada suatu titik dan nilai derivative pada titik itu mengurangi beban perhitungan selama pelatihan Fungsi logistik sigmoid dengan jangkauan dari 0 ke 1 sering digunakan sebagai fungsi aktivasi dari jaringan syaraf, dimana nilai output yang diharapkan juga bernilai biner dan nilai tersebut berada diantara interval 0 dan 1 f(x) x • Kondisi dimana jangkauan nilai yang cocok dengan masalah tertentu yang paling umum adalah dari -1 ke 1 • Persamaan : g ( x) 2 f ( x) 1 2 1 1 exp( x) 1 exp( x) 1 exp( x) g ' ( x) 2 [1 q ( x)][1 g ( x)] • Bipolar sigmoid berhubungan erat dengan fungsi tangen hiperbolik yang juga sering digunakan sebagai fungsi aktivasi ketika jangkauan yang diharapkan dari nilai output diantara -1 dan 1 • Persamaan fungsi tangen hiperbolik: exp( x ) exp( x ) h( x ) exp( x ) exp( x ) 1 exp( 2 x ) h( x ) 1 exp( 2 x ) h' ( x ) [1 h( x )][1 h ( x )] Hampir sama dengan fungsi undak biner, hanya saja output yang dihasilkan berupa 1, 0 atau-1 Fungsi yang menghasilkan output berupa 1, 0 atau -1 Fungsi ini akan bernilai 0 jika inputnya kurang dari ½, dan akan bernilai 1 jika inputnya lebih dari ½. Sedangkan jika nilai input terletak antara -½ dan ½, maka outputnya akan bernilai sama dengan nilai input ditambah ½. Fungsi ini akan bernilai -1 jika inputnya kurang dari -1. Sedangkan jika nilai input terletak antara -1 dan 1, maka outputnya akan bernilai sama dengan nilai inputnya. Fungsi sigmoid biner digunakan untuk jaringan syaraf yang dilatih dengan menggunakan metode backpropagation. Memiliki nilai pada range 0 sampai1. Output dari fungsi ini memiliki range antara 1 sampai -1