Metode Inferensi dan Penalaran - E

advertisement
Metode Inferensi dan Penalaran
Decision Tree
•
Merupakan salah satu contoh aplikasi dari tree
•
Tree (pohon) adalah suatu hierarki struktur yang
terdiri dari Node (simpul/veteks) yang menyimpan
informasi atau pengetahuan dan cabang (link/edge)
yang menghubungkan node.
•
Decision tree – pohon keputusan
– Menggunakan model tree untuk menggambarkan
keputusan-keputusan dan konsekuensinya
Contoh Decision Tree
Logika Deduktif






Logika deduktif : kesimpulan merupakan konsekuensi logis dari
premis-premis yang ada
Mengambil kesimpulan khusus dari premis yang bersifat umum
Pengambilan kesimpulan dapat secara langsung (hanya 1
premis) atau tidak langsung (beberapa premis)
Karakteristik pokok : kesimpulan benar harus mengikuti dari
premis yang benar
Premis disebut juga anteseden dan kesimpulan disebut
konsekuen
Salah satu jenis logika deduktif tidak langsung adalah syllogisme
Struktur Syllogisme
•
Terdiri 3 proposisi / pernyataan
– Premis mayor
– Premis minor
– Kesimpulan
•
Jenis Silogisme :
– Silogisme kategorial
– Silogisme hipotesis
– Silogisme alternatif
a. Silogisme Kategorial : Silogisme yang terjadi
dari tiga proposisi.
Premis umum : Premis Mayor (My)
Premis khusus :Premis Minor (Mn)
Premis simpulan : Premis Kesimpulan (K)
M : middle term
S : subjek
P : predikat
Contoh silogisme Kategorial:
My : Semua Mahasiswa adalah lulusan SLTA
Mn : Nanni adalah mahasiswa
K : Jadi Nanni lulusan SLTA
My : Tidak ada Manusia yang kekal
Mn : Mahasiswa adalah Manusia
K : Jadi Mahasiswa tidak kekal
My : Tidak seekor Ikan pun ayam
Mn : Semua Ikan berenang
K : Jadi tidak seekor Ayam pun berenang
M/Middle term
P/Major term
b. Silogisme Hipotesis: Silogisme yang terdiri atas premis mayor
yang berproposisi konditional hipotesis.
• Konditional hipotesis yaitu : bila premis minornya
membenarkan anteseden, simpulannya membenarkan
konsekuen. Bila minornya menolak anteseden, simpulannya juga
menolak konsekuen.
Contoh :
o
My : Jika tidak ada air, manusia akan kehausan.
Mn : Air tidak ada.
K : Jadi, Manusia akan kehausan.
My : Jika tidak ada udara, makhluk hidup akan mati.
Mn : Makhluk hidup itu mati.
K : Makhluk hidup itu tidak mendapat udara.
c. Silogisme Alternatif : Silogisme yang terdiri atas premis mayor
berupa proposisi alternatif.
• Proposisi alternatif yaitu bila premis minornya membenarkan
salah satu alternatifnya, simpulannya akan menolak alternatif
yang lain.
•Contoh :
• My : Nenek Sumi berada di Bandung atau Jakarta.
• Mn : Nenek Sumi berada di Bandung.
• K : Jadi, Nenek Sumi tidak berada di Jakarta.
•
•
•
My : Nenek Sumi berada di Bandung atau Bogor.
Mn : Nenek Sumi tidak berada di Jakarta.
K : Jadi, Nenek Sumi berada di Bandung.
Forward Chaining
•
•
•
Forward chaining merupakan grup dari multipel
inferensi yang melakukan pencarian dari suatu
masalah kepada solusinya.
Forward Chaining adalah data driven karena
inferensi dimulai dengan informasi yg tersedia dan
baru konklusi diperoleh
Mencari aturan inferensi sampai ditemukan satu
dimana anteseden (If clause) bernilai true. Ketika
ditemukan, bisa ditarik kesimpulan, menghasilkan
informasi baru.
Forward Chaining
•
Contoh : Menentukan warna binatang bernama
Tweety. Data awal adalah Tweety terbang dan
bernyanyi.
•
Misalkan ada 4 aturan :
– If x melompat dan memakan serangga, maka x
adalah katak
– If x terbang dan bernyanyi, maka x adalah
burung kenari
– If x adalah katak, maka x berwarna hijau
– If x adalah burung kenari, maka x berwarna
kuning
Forward Chaining
•
•
•
Yang dicari pertama adalah aturan nomor
2, karena anteseden-nya cocok dengan data
kita (if Tweety terbang dan bernyanyi)
Konsekuen (then Tweety adalah burung
kenari) ditambahkan ke data yang dimiliki
If tweety adalah burung kenari, maka
Tweety berwarna kuning (tujuan)
Backward Chaining
• Dimulai dengan tujuan (goal) yang diverifikasi apakah
bernilai TRUE atau FALSE
• Kemudian melihat rule yang mempunyai GOAL tersebut
pada bagian konklusinya.
• Mengecek pada premis dari rule tersebut untuk menguji
apakah rule tersebut terpenuhi (bernilai TRUE)
• Proses tersebut berlajut sampai semua kemungkinan yang
ada telah diperiksa atau sampai rule inisial yang diperiksa
(dg GOAL) telah terpenuhi
• Jika GOAL terbukti FALSE, maka GOAL berikut yang dicoba.
Backward Chaining
•
Dimulai dari daftar tujuan dan bergerak ke belakang
dari konsekuen ke anteseden untuk melihat data yang
mendukung konsekuen.
•
Mencari sampai ada konsekuen (Then clause) yang
merupakan tujuan. Jika antecedent (If clause) belum
diketahui nilainya (bernilai benar/salah), maka
ditambahkan ke daftar tujuan.
Backward Chaining
•
Contoh : Menentukan warna binatang bernama Tweety.
Data awal adalah Tweety terbang dan bernyanyi.
•
Misalkan ada 4 aturan :
– If x melompat dan memakan serangga, maka x adalah
katak
–
If x terbang dan bernyanyi, maka x adalah burung kenari
–
If x adalah katak, maka x berwarna hijau
–
If x adalah burung kenari, maka x berwarna kuning
Backward Chaining
•
Pertama akan mencari aturan 3 dan 4 (sesuai dengan
tujuan kita mencari warna)
•
Belum diketahui bahwa Tweety adalah burung kenari,
maka kedua anteseden (If Tweety adalah katak, If
Tweety adalah burung kenari) ditambahkan ke daftar
tujuan.
•
Lalu mencari aturan 1 dan 2, karena konsekuen-nya
(then x adalah katak, then x adalah burung kenari)
cocok dengan daftar tujuan yang baru ditambahkan.
Backward Chaining
•
Anteseden (If Tweety terbang dan bernyanyi) bernilai
true/benar, maka disimpulkan Tweety adalah burung
kenari.
•
Tujuan menentukan warna Tweety sekarang sudah
dicapai (Tweety berwarna hijau jika katak, dan kuning
jika burung kenari, Tweety adalah burung kenari
karena terbang dan bernyanyi, jadi Tweety berwarna
kuning).
Contoh Kasus
•
Seorang user ingin berkonsultasi apakah tepat jika dia
berinvestasi pada IBM?
Variabel-variabel yang digunakan:
A = memiliki uang $10.000 untuk investasi
B = berusia < 30 tahun
C = tingkat pendidikan pada level college
D = pendapatan minimum pertahun $40.000
E
= investasi pada bidang Sekuritas (Asuransi)
F
= investasi pada saham pertumbuhan (growth stock)
G = investasi pada saham IBM
Setiap variabel dapat bernilai TRUE atau FALSE
Contoh Kasus
•
Fakta
– Memiliki uang $10.000 (A TRUE)
– Berusia 25 tahun (B TRUE)
•
Dia ingin meminta nasihat apakah tepat jika
berinvestasi pada IBM stock?
•
Rules
R1 : IF seseorang memiliki uang $10.000 untuk berinvestasi
AND dia berpendidikan pada level college
THEN dia harus berinvestasi pada bidang sekuritas
R2 : IF seseorang memiliki pendapatan per tahun min $40.000
AND dia berpendidikan pada level college
THEN dia harus berinvestasi pada saham pertumbuhan (growth stocks)
R3 : IF seseorang berusia < 30 tahun
AND dia berinvestasi pada bidang sekuritas
THEN dia sebaiknya berinvestasi pada saham pertumbuhan
R4 : IF seseorang berusia < 30 tahun dan > 22 tahun
THEN dia berpendidikan college
R5 : IF seseorang ingin berinvestasi pada saham pertumbuhan
THEN saham yang dipilih adalah saham IBM.
•
•
•
•
•
R1: IF A AND C, THEN E
R2: IF D AND C, THEN F
R3: IF B AND E, THEN F
R4: IF B, THEN C
R5: IF F, THEN G
Forward Chaining
Backward Chaining
Penalaran


Suatu penalaran dimana adanya penambahan
fakta baru mengakibatkan ketidakkonsistenan,
ciri-ciri penalaran sebagai berikut :



adanya ketidakpastian
adanya perubahan pada pengetahuan
adanya penambahan fakta baru dapat
mengubah konklusi yang sudah terbentuk
•
•
•
•
•
•
Penalaran
Contoh :
Premis 1 : Aljabar adalah pelajaran yang sulit
Premis 2 : Geometri adalah pelajaran yang sulit
Premis 3 : Kalkulus adalah pelajaran yang sulit
Kesimpulan : Matematika adalah pelajaran yang sulit
muncul premis 4 : sosiologi adalah pelajaran yang sulit,
akan menyebabkan kesimpulan (Matematika adalah
pelajaran yang sulit) menjadi tidak berlaku karena
sosiologi bukan bagian dari matematika
• penalaran induktif sangat dimungkinkan adanya
ketidakpastian.
Ketidakpastian (uncertainty)



Kurang informasi yang memadai
Menghalangi untuk membuat keputusan
yang terbaik
Salah satu teori yang berhubungan dengan
ketidakpastian : Probabilitas Bayes
Probabilitas

Probabilitas menunjukkan kemungkinan
sesuatu akan terjadi atau tidak
Probabilitas



Contoh :
Misal dari 10 orang sarjana , 3 orang
menguasai java, sehingga peluang untuk
memilih sarjana yang menguasai java adalah
:
p(java) = 3/10 = 0.3
Probabilitas Bayes


Contoh :
Probabilitas Bayes
Asih mengalami gejala ada bintik-bintik di wajahnya. Dokter menduga
bahwa Asih terkena cacar dengan :

probabilitas munculnya bintik-bintik di wajah, jika Asih terkena
cacar → p(bintik | cacar) = 0.8

probabilitas Asih terkena cacar tanpa memandang gejala
apapun → p(cacar) = 0.4

probabilitas munculnya bintik-bintik di wajah, jika Asih terkena
alergi → p(bintik | alergi) = 0.3

probabilitas Asih terkena alergi tanpa memandang gejala
apapun → p(alergi) = 0.7

probabilitas munculnya bintik-bintik di wajah, jika Asih
jerawatan → p(bintik | jerawatan) = 0.9

probabilitas Asih jerawatan tanpa memandang gejala apapun →
p(jerawatan) = 0.5
Probabilitas Bayes

Probabilitas Asih terkena cacar karena ada
bintik2 di wajahnya :
Probabilitas Bayes

Probabilitas Asih terkena alergi karena ada
bintik2 di wajahnya :
Probabilitas Bayes

Probabilitas Asih jerawatan karena ada
bintik2 di wajahnya :
Probabilitas Bayes

Jika setelah dilakukan pengujian terhadap
hipotesis muncul satu atau lebih evidence
(fakta) atau observasi baru maka :
Probabilitas Bayes

Misal : Adanya bintik-bintik di wajah merupakan
gejala seseorang terkena cacar. Observasi baru
menunjukkan bahwa selain bintik-bintik di wajah,
panas badan juga merupakan gejala orang kena
cacar. Jadi antara munculnya bintik-bintik di wajah
dan panas badan juga memiliki keterkaitan satu
sama lain.
Probabilitas Bayes




Asih ada bintik-bintik di wajahnya. Dokter menduga bahwa
Asih terkena cacar dengan probabilitas terkena cacar bila
ada bintik-bintik di wajah → p(cacar | bintik) = 0.8
Ada observasi bahwa orang terkena cacar pasti mengalami
panas badan. Jika diketahui probabilitas orang terkena cacar
bila panas badan → p(cacar | panas ) = 0.5
Keterkaitan antara adanya bintik-bintik di wajah dan panas
badan bila seseorang terkena cacar → p(bintik | panas,
cacar) = 0.4
Keterkaitan antara adanya bintik-bintik di wajah dan panas
badan → p(bintik | panas) = 0.6
Probabilitas Bayes
Faktor Kepastian (Certainty)

Certainty Factor (CF) menunjukkan ukuran kepastian terhadap
suatu fakta atau aturan.

CF[h,e] = MB[h,e] – MD[h,e]

CF[h,e] = faktor kepastian

MB[h,e] = ukuran kepercayaan/tingkat keyakinan
terhadap hipotesis h, jika diberikan/dipengaruhi

evidence e (antara 0 dan 1)

MD[h,e] = ukuran ketidakpercayaan/tingkat
ketidakyakinan terhadap hipotesis h, jika
diberikan/dipenharuhi evidence e (antara 0 dan 1)
Faktor Kepastian (Certainty)
Faktor Kepastian (Certainty)





Contoh :
Misal suatu observasi memberikan kepercayaan terhadap h1 dengan
MB[h1,e]=0,5 dan MD[h1,e] = 0,2 maka :

CF[h1,e] = 0,5 – 0,2 = 0,3
Jika observasi tersebut juga memberikan kepercayaan terhadap h2 dengan
MB[h2,e]=0,8 dan MD[h2,e]=0,1, maka :

CF[h2,e] = 0,8 – 0,1= 0,7
Untuk mencari CF[h1 ∧ h2,e] diperoleh dari

MB[h1 ∧ h2,e] = min (0,5 ; 0,8) = 0,5

MD[h1 ∧ h2,e] = min (0,2 ; 0,1) = 0,1

CF[h1 ∧ h2,e] = 0,5 – 0,1 = 0,4
Untuk mencari CF[h1∨ h2,e] diperoleh dari

MB[h1∨ h2,e] = max (0,5 ; 0,8) = 0,8

MD[h1∨ h2,e] = max (0,2 ; 0,1) = 0,2

CF[h1∨ h2,e] = 0,8 – 0,2 = 0,6
Download