100 95 Akurasi (%) Pada algoritma VFI5, kesalahan hasil prediksi terjadi pada instance yang termasuk ke dalam kelas jantan yang dikenali sebagai kelas betina, sedangkan pada algoritma VFI5d terjadi sebaliknya, instance yang termasuk ke dalam kelas betina salah diprediksi menjadi kelas jantan. Pada algoritma VFI5m semua instance berhasil diprediksi secara benar (Lampiran 79, 80 dan 81). VFI5 90 VFI5d 85 VFI5m 80 Akurasi data Ikan Koi 0 Berdasarkan hasil yang didapatkan dari ketiga iterasi akan didapatkan nilai kinerja ratarata ketiga metode end point tersebut (Tabel 41). Tabel 41 Nilai kinerja rata-rata dari ketiga metode end point untuk data Ikan Koi. Metode VFI5 VFI5d VFI5m Iterasi1 92,50% 95,00% 82,50% Iterasi2 97,50% 97,50% 92,50% Iterasi3 94,87% 94,87% 100,00% Rata-rata 94,96% 95,79% 91,67% VFI5 menghasilkan tingkat kinerja sebesar 94,96%. VFI5d menghasilkan nilai kinerja yang lebih baik yaitu sebesar 95,79%. VFI5m menghasilkan kinerja yang paling kecil, yaitu sebesar 91,67% (Gambar 8). 100.00% 80.00% 60.00% VFI5 40.00% VFI5d 20.00% VFI5m 0.00% 1 2 3 Gambar 8 Diagram nilai kinerja rata-rata untuk data Ikan Koi Nilai di luar interval pada data uji Wine yang dipetakan terhadap nilai kinerja ketiga metode tersebut akan memperlihatkan kecenderungan jumlah nilai di luar interval dari setiap metode VFI5. Pada Gambar 9 terlihat bahwa pola interval yang dimiliki oleh VFI5 lebih sedikit memiliki nilai di luar interval dibandingkan dengan VFI5d dan VFI5m. 20 40 60 80 Nilai di luar interval (instance) Gambar 9 Diagram nilai kinerja terhadap nilai di luar interval pada data uji Ikan Koi KESIMPULAN DAN SARAN Kesimpulan Algoritma VFI5 biasa memiliki selang nilai akurasi rata-rata sebesar 1,54% dari seluruh data yang diuji. Algoritma VFI5 dengan metode end point desil dan algoritma VFI5 dengan metode end point min(n+1) max(n-1) cenderung memiliki selang nilai akurasi rata-rata yang lebih besar dibandingkan dengan algoritma VFI5 biasa, yaitu sebesar 4,37% untuk algoritma VFI5 dengan metode end point desil dan 2,2% untuk algoritma VFI5 dengan metode end point min(n+1) max(n1). Algoritma VFI5 menghasilkan nilai akurasi rata-rata sebesar 95,92% pada pengujian data Iris. Nilai yang sama pun diperoleh oleh algoritma VFI5 dengan metode end point desil, sedangkan algoritma VFI5 dengan metode end point min(n+1) max(n-1) hanya menghasilkan nilai akurasi rata-rata sebesar 93,87%. Pada pengujian data Wine, algoritma VFI5 menghasilkan nilai akurasi rata-rata sebesar 94,38%. Algoritma VFI5 dengan metode end point desil menghasilkan nilai akurasi rata-rata yang cukup jauh dibawah nilai akurasi rata-rata algoritma VFI5 biasa, yaitu sebesar 91,55%, sedangkan algoritma VFI5 dengan metode end Intervals. New Trends in Artificial Intelligence and Neural Networks(TAINN’97) : 190-194. http://citeseer.ist.psu.edu /paper/34532.pdf. [November 2008] point min(n+1) max(n-1) menghasilkan nilai akurasi rata-rata sebesar 92,67%. Pada pengujian data Ikan Koi, nilai akurasi rata-rata algoritma VFI5 dengan metode end point desil sebesar 95,79% dapat melebihi nilai akurasi rata-rata algoritma VFI5 biasa yang menghasilkan nilai 94,96%. Nilai akurasi rata-rata algoritma VFI5 dengan metode end point min(n+1) max(n1) terpaut cukup jauh dibandingkan kedua algoritma yang lainnya, yaitu sebesar 91,67%. Algoritma VFI5 dengan metode end point desil dan algoritma VFI5 dengan metode end point min(n+1) max(n-1) akan mengalami kecenderungan penurunan kinerja bila dibandingkan dengan algoritma VFI5 biasa. Semakin banyaknya jumlah data uji yang memiliki nilai di luar interval akan membuat turunnya kinerja algoritma VFI5 dengan metode end point desil dan algoritma VFI5 dengan metode end point min(n+1) max(n-1). Saran Penelitian ini dapat dikembangkan lebih lanjut dengan mengkonsentrasikan titik penelitian pada pengujian metode penentuan end point min max, end point desil dan end point min(n+1) max(n-1) terhadap tingkat kemenjuluran data (skewness) yang lebih besar. Fleming M.C, Nellis J.G. 1994. Principles of Applied Statistic. New York : Routledge. Fu L. 1994. Neural Network in Computers Intelligence. Singapura : McGraw-Hill. Hamilton H, Gurak E, Findlater L. 2003. Confusion Matrix. http://www2.cs.uregina.ca/ ~dbd/cs831/notes/confusion_matrix/confusio n_matrix.html. Han J, Kamber M. 2001 . Data Mining Concepts & Techniques. USA : Academic Press. Navidi W. 2006. Statistic for Engineers and Scientists. New York : McGraw-Hill. Sarle W. 2004. What are cross-validation and bootstrapping?. http://www.faqs.org/faqs/ aifaq/neural-nets/part3/section-12.html [November 2008] DAFTAR PUSTAKA Demiroz G. 1997. Non-Incremental Classification Learning Algorithms Based on Voting Feature Intervals. http://www.cs.bilkent. edu.tr/tech-reports/1997/BU-CEIS9715.ps.gz Demiroz G, Guvenir HA. 1997. Classification by Voting Feature Intervals. http://www.cs.bilkent.edu.tr/tech-reports/ 1997/BU-CEIS-9708.ps.gz Demiroz G, Guvenir HA, Ilter N. 1997. Differential Diagnosis of ErythematoSquamous Diseases using Voting Feature