UJI INTERRATER RELIABILITY Pada penelitian kesehatan seringkali kita menggunakan teknik pengamatan (observasi), misalna ingin mengetahui perilaku perawat dalam melakukan asuhan keperawatan , mengamati dokter dalam melakukan pegkajian terhadap pasien, dll. Dengan metode pengamatan observasi seringkali antara peneliti dengan pengumpul data terjadi perbedaan persepsi terhadap kajian yang diamati. Agar data yang dihasilkan valid, maka harus ada penyamaan persepsi antara peneliti dengan si pengumpul data. Uji interrater reliability merupakan jenis uji yang digunakan untuk menyamakan persepsi dalam hal ini antara peneliti dan si pegunpul data. Alat yang digunakan untuk uji ini adalah uji statistik Kappa. Ketentuan uji: 1. Kalau si pengumpul data banyak maka uji dilakukan terhadap masing-masing pengumpul data 2. Dilakuka terhadap masing-masing pertanyaan 3. Peneliti dan si pegumpul data bersama-sama mengobservasi 4. Waktu mengobservasi antara peneliti dan si pengumpul data tidak boleh berbeda Perinsip Uji : 1. Bila nilai koefisien Kappa > 0,6 atau p value & alpha (0,05), maka persepsi antara peneliti dengan si penumpul data sama. 2. Bila nilai koefisien Kappa < 0,6 atau p value & alpha (0,05), maka persepsi antara peneliti dengan si pengumpul data terjadi perbedaan. Contoh kasus: “Seorang peneliti melakukan peeliian terhadap perilaku perawat dalam melaksanakan asuhan keperawatan, kemudian dengan instrument lembar observasi peneliti melakukan pengamatan dank karena guna efesiensi waktu maka peneliti membutuhkan tim untuk membantu melakukan observasi maka sebelumnya harus dilakukan uji interrater reliability”. Apakah dalam melakukan pengkajian sampai evaluasi perawat melakukan engan baik ? 1.Baik 2. Cukup. 3. Kurang baik Kemudian dilakukan uji coba dengan pengamatan terhadap 15 perawat hasilnya Sbb. Tabulasi Data (Fiktif) ©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016 Page 1 No Perawat 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 Peneliti 1 2 1 2 2 2 3 1 1 2 2 2 2 2 3 Numerator 3 2 1 3 2 2 2 1 2 3 1 3 2 3 3 Ujilah apakah ada persamaan persepsi antara peneliti dengan si pengumpul data? Langkah penyelesaian : 1. Pilihlah program SPSS dengan mengklik Allprogram dan SPSS For Windows: ©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016 Page 2 2. Buatlah nama variable dengan mengklik “Variable View” dam memasukkannya satu persatu “Penelitian” dengan megketikkannya di “Name” – pada kolom “Type” biarkan tetap “Numeric” – kolom “With” abaikan saja karena SPSS akan mengaturnya secara otomatis – kolom “Label” Ketikkan “Penelitian”- kolom “Values” sampai seperti gambar dibawah ini: 3. kemudian input atau entry data ke "Data View" sehingga tampak seperti gambar dibawah ini: ©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016 Page 3 4. Tibalah saatnya melakukan pengujian dengan mengklik tab menu “Analyze” – Sub menu “Desciptif” – sub-sub menu “Crostab” seasaat kemudian akan tampil gambar Crostab. ©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016 Page 4 5. Pindahkan variable “Penelitian” ke “Row” dengan mengklik tanda panah. Begitupun variable “Numerator” ke “Column(s)” sepeti gambar dibawah berikut: ©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016 Page 5 6.Klik tombol “statistik“ dan klik “Kappa” ©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016 Page 6 7. Klik “cntinue” lalu “Ok” dan hasilnya sbb: 8. Interpretasi data : dari hasil uji koefisien kappa = 0.184 dan p value =0,265 dengan hasil ini berarti koefisie kappa < 0,6 dan p value >0,05, dengan demikian dapat disimulkan ada perbedaan persepsi mengenai perilaku perawat yang diamati antara peneliti denagn s pegumpul data (si pengumpul data harus di training terlebih dahulu sebelum melakukan observasi sungguhan). Using this formula and the results in the table an approximate 95% confidence interval on Kappa is (0.504, 0.848). Some statisticians prefer the use of a weighted Kappa, particularly if the categories are ordered. The weighted Kappa allows “close” ratings to not simply be counted as “misses.” However, SPSS does not calculate weighted Kappas. A more complete list of how Kappa might be interpreted (Landis & Koch, 1977) is given in the following table Kappa <0 0.0 – 0.20 0.21 – 0.40 0.41 – 0.60 0.61 – 0.80 0.81 – 1.00 Interpretation Poor agreement Slight agreement Fair agreement Moderate agreement Substantial agreement Almost perfect agreement ©IgE_Uji Interrater Reliability/Biostatistics/Nursing-Unklab 2016 Page 7