Eksplorasi Metode Penentuan Nilai End Point Pada Algoritma

advertisement
 100
95
Akurasi (%)
Pada algoritma VFI5, kesalahan hasil
prediksi terjadi pada instance yang termasuk ke
dalam kelas jantan yang dikenali sebagai kelas
betina, sedangkan pada algoritma VFI5d terjadi
sebaliknya, instance yang termasuk ke dalam
kelas betina salah diprediksi menjadi kelas jantan.
Pada algoritma VFI5m semua instance berhasil
diprediksi secara benar (Lampiran 79, 80 dan 81).
VFI5
90
VFI5d
85
VFI5m
80
Akurasi data Ikan Koi
0
Berdasarkan hasil yang didapatkan dari
ketiga iterasi akan didapatkan nilai kinerja ratarata ketiga metode end point tersebut (Tabel 41).
Tabel 41 Nilai kinerja rata-rata dari ketiga metode
end point untuk data Ikan Koi.
Metode
VFI5
VFI5d
VFI5m
Iterasi1
92,50%
95,00%
82,50%
Iterasi2
97,50%
97,50%
92,50%
Iterasi3
94,87%
94,87%
100,00%
Rata-rata
94,96%
95,79%
91,67%
VFI5 menghasilkan tingkat kinerja sebesar
94,96%. VFI5d menghasilkan nilai kinerja yang
lebih baik yaitu sebesar 95,79%. VFI5m
menghasilkan kinerja yang paling kecil, yaitu
sebesar 91,67% (Gambar 8).
100.00%
80.00%
60.00%
VFI5
40.00%
VFI5d
20.00%
VFI5m
0.00%
1
2
3
Gambar 8 Diagram nilai kinerja rata-rata untuk
data Ikan Koi
Nilai di luar interval pada data uji Wine yang
dipetakan terhadap nilai kinerja ketiga metode
tersebut akan memperlihatkan kecenderungan
jumlah nilai di luar interval dari setiap metode
VFI5. Pada Gambar 9 terlihat bahwa pola interval
yang dimiliki oleh VFI5 lebih sedikit memiliki
nilai di luar interval dibandingkan dengan VFI5d
dan VFI5m.
20
40
60
80
Nilai di luar interval (instance)
Gambar 9 Diagram nilai kinerja terhadap nilai di
luar interval pada data uji Ikan Koi
KESIMPULAN DAN SARAN
Kesimpulan
Algoritma VFI5 biasa memiliki selang nilai
akurasi rata-rata sebesar 1,54% dari seluruh data
yang diuji. Algoritma VFI5 dengan metode end
point desil dan algoritma VFI5 dengan metode
end point min(n+1) max(n-1) cenderung memiliki
selang nilai akurasi rata-rata yang lebih besar
dibandingkan dengan algoritma VFI5 biasa, yaitu
sebesar 4,37% untuk algoritma VFI5 dengan
metode end point desil dan 2,2% untuk algoritma
VFI5 dengan metode end point min(n+1) max(n1).
Algoritma VFI5 menghasilkan nilai akurasi
rata-rata sebesar 95,92% pada pengujian data Iris.
Nilai yang sama pun diperoleh oleh algoritma
VFI5 dengan metode end point desil, sedangkan
algoritma VFI5 dengan metode end point
min(n+1) max(n-1) hanya menghasilkan nilai
akurasi rata-rata sebesar 93,87%.
Pada pengujian data Wine, algoritma VFI5
menghasilkan nilai akurasi rata-rata sebesar
94,38%. Algoritma VFI5 dengan metode end
point desil menghasilkan nilai akurasi rata-rata
yang cukup jauh dibawah nilai akurasi rata-rata
algoritma VFI5 biasa, yaitu sebesar 91,55%,
sedangkan algoritma VFI5 dengan metode end
Intervals. New Trends in Artificial
Intelligence
and
Neural
Networks(TAINN’97)
:
190-194.
http://citeseer.ist.psu.edu /paper/34532.pdf.
[November 2008]
point min(n+1) max(n-1) menghasilkan nilai
akurasi rata-rata sebesar 92,67%.
Pada pengujian data Ikan Koi, nilai akurasi
rata-rata algoritma VFI5 dengan metode end point
desil sebesar 95,79% dapat melebihi nilai akurasi
rata-rata algoritma VFI5 biasa yang menghasilkan
nilai 94,96%. Nilai akurasi rata-rata algoritma
VFI5 dengan metode end point min(n+1) max(n1) terpaut cukup jauh dibandingkan kedua
algoritma yang lainnya, yaitu sebesar 91,67%.
Algoritma VFI5 dengan metode end point
desil dan algoritma VFI5 dengan metode end
point min(n+1) max(n-1) akan mengalami
kecenderungan
penurunan
kinerja
bila
dibandingkan dengan algoritma VFI5 biasa.
Semakin banyaknya jumlah data uji yang
memiliki nilai di luar interval akan membuat
turunnya kinerja algoritma VFI5 dengan metode
end point desil dan algoritma VFI5 dengan
metode end point min(n+1) max(n-1).
Saran
Penelitian ini dapat dikembangkan lebih
lanjut dengan mengkonsentrasikan titik penelitian
pada pengujian metode penentuan end point min
max, end point desil dan end point min(n+1)
max(n-1) terhadap tingkat kemenjuluran data
(skewness) yang lebih besar.
Fleming M.C, Nellis J.G. 1994. Principles of
Applied Statistic. New York : Routledge.
Fu L. 1994. Neural Network in Computers
Intelligence. Singapura : McGraw-Hill.
Hamilton H, Gurak E, Findlater L. 2003.
Confusion Matrix. http://www2.cs.uregina.ca/
~dbd/cs831/notes/confusion_matrix/confusio
n_matrix.html.
Han J, Kamber M. 2001 . Data Mining Concepts
& Techniques. USA : Academic Press.
Navidi W. 2006. Statistic for Engineers and
Scientists. New York : McGraw-Hill.
Sarle W. 2004. What are cross-validation and
bootstrapping?. http://www.faqs.org/faqs/ aifaq/neural-nets/part3/section-12.html
[November 2008]
DAFTAR PUSTAKA
Demiroz G. 1997. Non-Incremental Classification
Learning Algorithms Based on Voting
Feature Intervals. http://www.cs.bilkent.
edu.tr/tech-reports/1997/BU-CEIS9715.ps.gz
Demiroz G, Guvenir HA. 1997. Classification by
Voting
Feature
Intervals.
http://www.cs.bilkent.edu.tr/tech-reports/
1997/BU-CEIS-9708.ps.gz
Demiroz G, Guvenir HA, Ilter N. 1997.
Differential Diagnosis of ErythematoSquamous Diseases using Voting Feature
Download