Uploaded by purnawinadi87

Uji Interrater Reliability KAPPA

advertisement
UJI INTERRATER RELIABILITY
Pada penelitian kesehatan seringkali kita menggunakan teknik pengamatan (observasi),
misalna ingin mengetahui perilaku perawat dalam melakukan asuhan keperawatan , mengamati
dokter dalam melakukan pegkajian terhadap pasien, dll. Dengan metode pengamatan observasi
seringkali antara peneliti dengan pengumpul data terjadi perbedaan persepsi terhadap kajian yang
diamati. Agar data yang dihasilkan valid, maka harus ada penyamaan persepsi antara peneliti
dengan si pengumpul data. Uji interrater reliability merupakan jenis uji yang digunakan untuk
menyamakan persepsi dalam hal ini antara peneliti dan si pegunpul data. Alat yang digunakan
untuk uji ini adalah uji statistik Kappa.
Ketentuan uji:
1. Kalau si pengumpul data banyak maka uji dilakukan terhadap masing-masing pengumpul
data
2. Dilakuka terhadap masing-masing pertanyaan
3. Peneliti dan si pegumpul data bersama-sama mengobservasi
4. Waktu mengobservasi antara peneliti dan si pengumpul data tidak boleh berbeda
Perinsip Uji :
1. Bila nilai koefisien Kappa > 0,6 atau p value & alpha (0,05), maka persepsi antara
peneliti dengan si penumpul data sama.
2. Bila nilai koefisien Kappa < 0,6 atau p value & alpha (0,05), maka persepsi antara
peneliti dengan si pengumpul data terjadi perbedaan.
Contoh kasus:
“Seorang peneliti melakukan peeliian terhadap perilaku perawat dalam melaksanakan asuhan
keperawatan, kemudian dengan instrument lembar observasi peneliti melakukan pengamatan
dank karena guna efesiensi waktu maka peneliti membutuhkan tim untuk membantu melakukan
observasi maka sebelumnya harus dilakukan uji interrater reliability”.
Apakah dalam melakukan pengkajian sampai evaluasi perawat melakukan engan baik ?
1.Baik
2. Cukup.
3. Kurang baik
Kemudian dilakukan uji coba dengan pengamatan terhadap 15 perawat hasilnya Sbb.
Tabulasi Data (Fiktif)
©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016
Page 1
No Perawat
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
Peneliti
1
2
1
2
2
2
3
1
1
2
2
2
2
2
3
Numerator
3
2
1
3
2
2
2
1
2
3
1
3
2
3
3
Ujilah apakah ada persamaan persepsi antara peneliti dengan si pengumpul data?
Langkah penyelesaian :
1. Pilihlah program SPSS dengan mengklik Allprogram dan SPSS For Windows:
©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016
Page 2
2. Buatlah nama variable dengan mengklik “Variable View” dam memasukkannya satu persatu
“Penelitian” dengan megketikkannya di “Name” – pada kolom “Type” biarkan tetap “Numeric”
– kolom “With” abaikan saja karena SPSS akan mengaturnya secara otomatis – kolom “Label”
Ketikkan “Penelitian”- kolom “Values” sampai seperti gambar dibawah ini:
3. kemudian input atau entry data ke "Data View" sehingga tampak seperti gambar dibawah ini:
©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016
Page 3
4. Tibalah saatnya melakukan pengujian dengan mengklik tab menu “Analyze” – Sub menu
“Desciptif” – sub-sub menu “Crostab” seasaat kemudian akan tampil gambar Crostab.
©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016
Page 4
5. Pindahkan variable “Penelitian” ke “Row” dengan mengklik tanda panah. Begitupun variable
“Numerator” ke “Column(s)” sepeti gambar dibawah berikut:
©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016
Page 5
6.Klik tombol “statistik“ dan klik “Kappa”
©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016
Page 6
7. Klik “cntinue” lalu “Ok” dan hasilnya sbb:
8. Interpretasi data : dari hasil uji koefisien kappa = 0.184 dan p value =0,265 dengan hasil ini
berarti koefisie kappa < 0,6 dan p value >0,05, dengan demikian dapat disimulkan ada perbedaan
persepsi mengenai perilaku perawat yang diamati antara peneliti denagn s pegumpul data (si
pengumpul data harus di training terlebih dahulu sebelum melakukan observasi sungguhan).
Using this formula and the results in the table an approximate 95% confidence interval on Kappa
is (0.504, 0.848). Some statisticians prefer the use of a weighted Kappa, particularly if the
categories are ordered. The weighted Kappa allows “close” ratings to not simply be counted as
“misses.” However, SPSS does not calculate weighted Kappas.
A more complete list of how Kappa might be interpreted (Landis & Koch, 1977) is given
in the following table
Kappa
<0
0.0 – 0.20
0.21 – 0.40
0.41 – 0.60
0.61 – 0.80
0.81 – 1.00
Interpretation
Poor agreement
Slight agreement
Fair agreement
Moderate agreement
Substantial agreement
Almost perfect agreement
©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016
Page 7
Download