BAB II KAJIAN TEORI Bab ini berisi teori-teori pendukung Analisis Profil dengan Multidimensional Scaling (PAMS) dan aplikasinya yang akan dibahas dalam bab selanjutnya. Yang akan dibahas dalam bab ini adalah matriks, ruang vektor euclidean, analisis multivariat, analisis profil, multidimensional scaling, distribusi empiris, prinsip plug-in, standar error dan regresi linier ganda. A. MATRIKS 1. Pengertian Matriks Menurut Howard Anton (1997: 22) matriks adalah susunan segi empat siku-siku dari bilangan-bilangan. Bilangan-bilangan dalam susunan tersebut dinamakan entri dari matriks. Matriks dilambangkan dengan huruf besar, sedangkan entri (elemen matriks) dilambangkan dengan huruf kecil. Dalam matriks dikenal ukuran matriks yang disebut ordo, yaitu banyaknya baris × banyaknya kolom. Contoh 1 Matriks berordo 3×2, dengan entri . 7 8 Secara umum sebuah matriks dapat ditulis: Penulisan yang lebih singkat: dengan i=1,2,…, m dan j=1,2,…, n. Indeks pertama (i) menyatakan baris ke-i dan indeks kedua (j) menyatakan kolom ke-j. Dua matriks dikatakan sama, jika ordonya sama dan entri-entri yang bersesuaian dalam kedua matriks tersebut sama. Jika matriks seperti bentuk umum di atas yaitu i=1,2,…, m dan j=1,2,…, n, dan dan , maka berlaku dengan . Contoh 2 Jika dan , dan , hanya dipenuhi oleh . 2. Matriks Bujursangkar Matriks dengan ordo disebut matriks bujur sangkar, yaitu matriks yang memiliki jumlah baris sama dengan jumlah kolom. Dalam matriks bujursangkar dikenal diagonal utama, yaitu entri-entri yang mempunyai nomor baris sama dengan nomor kolom. Contoh 3 Diagonal utama Matriks di atas mempunyai ordo terletak pada diagonal utama adalah , dan ditulis . , sedangkan entri yang 9 Matriks bujur sangkar yang diagonal utamanya berupa bilangan 1 dan yang di luar diagonal utama berupa bilangan 0 disebut matriks identitas, dilambangkan dengan I. Jika ukuran penting untuk ditekankan, maka ditulis dengan untuk matriks ukuran . 3. Penjumlahan Matriks Menurut Howard Anton (1997: 23), jika matriks yang ukurannya sama, maka jumlah dan adalah sebarang dua adalah matriks yang diperoleh dengan menambahkan bersama-sama entri yang bersesuaian dalam kedua matriks tersebut. Matriks-matriks yang ukurannya berbeda tidak dapat dijumlahkan. Contoh 4 maka sedangkan ordo dan ordo , tidak terdefinisi, karena ordo tidak sama dengan tidak sama dengan ordo . 4. Perkalian Matriks dengan Skalar Menurut Howard Anton (1997: 24), jika adalah skalar, maka hasil kali (product) mengalikan masing-masing entri dari adalah suatu matriks dan adalah matriks yang diperoleh dengan oleh . 10 Contoh 5 Jika terdapat matriks maka Jika adalah sebarang matriks, maka – Jika akan menyatakan hasil kali adalah matriks yang ordonya sama, maka sebagai jumlah . didefinisikan . Contoh 6 Berdasarkan Contoh 4 sebelumnya, maka 5. Perkalian Matriks Menurut Howard Anton (1997: 25), jika adalah matriks , maka hasil kali adalah matriks adalah matriks dan yang entri- entrinya ditentukan sebagai berikut. Untuk mencari entri dalam baris dan kolom dari , pilihlah baris i dari matriks dan kolom j dari matriks . Kalikanlah entri-entri yang bersesuaian dari baris dan kolom tersebut bersama-sama dan kemudian tambahkanlah hasil kali yang dihasilkan. 11 Jika dan dengan . Perkalian matriks memenuhi syarat: banyak kolom Aturan: dan , yang dinyatakan oleh, yang sama dengan banyak baris . (jumlah dari semua perkalian antara elemen baris ke- dengan elemen dan pada pada kolom ke- ) Dengan aturan tersebut, dikaitkan dengan vektor kolom dan vektor baris, jika vektor baris ke- dari matriks elemen-elemen matriks dan adalah: vektor kolom ke- dari matriks , maka . Contoh 7 Karena adalah matriks adalah matriks dan adalah matriks , maka hasil kali . Berikut merupakan perhitungan-perhitungan untuk hasil kali dengan mengalikan entri-entri yang bersesuaian bersama-sama dan menambah hasil kali; Entri pada baris ke-1 dan kolom ke-1 Entri pada baris ke-1 dan kolom ke-2 12 Entri pada baris ke-2 dan kolom ke-1 Entri pada baris ke-2 dan kolom ke-2 Maka, 6. Transpose Matriks Menurut Howard Anton (1997: 27), jika maka transpose dinyatakan oleh adalah sebarang matriks , dan didefinisikan dengan matriks yang kolom pertamanya adalah baris pertama dari , kolom keduanya adalah baris kedua dari , demikian juga dengan kolom ketiga adalah baris ketiga dari , dan seterusnya. Sifat-sifat transpose matriks: 1. 2. 3. Contoh 8 Jika maka didapatkan transpose matriks 13 7. Determinan Matriks Menurut Howard Anton (1997: 63), misalkan Fungsi determinan dinyatakan oleh adalah matriks kuadrat. , dan didefinisikan sebagai jumlah semua hasil perkalian elementer bertanda dari . Sebuah hasil perkalian elementer bertanda dari suatu matriks sebuah hasil perkalian elementer pada suatu kolom dengan atau adalah . a. Determinan matriks Determinan dari didefinisikan sebagai b. Determinan matriks Determinan dari didefinisikan sebagai c. Matriks Minor Diberikan matriks . Minor dari , ditulis sebagai determinan dari submatriks didefinisikan yang didapatkan dengan cara menghilangkan baris ke-i dan kolom ke-j. d. Matriks Kofaktor Diberikan matriks didefinisikan sebagai . Kofaktor dari . dinyatakan dengan , 14 Matriks dinamakan matriks kofaktor. e. Matriks Adjoint Matriks adjoint dari , ditulis matriks kofaktor dari . Contoh 9 Misalkan, Minor Kofaktor adalah adalah , didefinisikan sebagai transpose dari 15 f. Determinan matriks Teorema 2.1: (Anton, 1997: 79) Determinan matriks yang berukuran dapat dihitung dengan mengalikan entri-entri dalam suatu baris (atau kolom) dengan kofaktorkofakornya dan menambahkan hasil-hasil kali yang dihasilkan; yakni, untuk setiap dan , maka (ekspansi kofaktor di (ekspansi kofaktor di sepanjang baris ke-i), dan sepanjang kolom ke-j). Contoh 10 Misalkan matriks dengan ordo Tentukan determinan Jawab: dengan metode ekspansi kofaktor baris kedua 16 Jadi, 8. Invers Definisi 2.1: (Anton, 1997:34) Jika matriks persegi dan jika terdapat suatu matriks yang sama sedemikian sehingga , maka dengan ukuran invertible (dapat dibalik) dan adalah invers dari . Jika dapat dibalik, maka inversnya akan dinyatakan dengan simbol . Jadi dan Teorema 2.2: (Anton, 1997: 35) Jika dan maka 1. 2. invertible adalah matriks-matriks yang invertible dan ukurannya sama, 17 Teorema 2.3: (Anton, 1997: 37) Jika adalah matriks invertible, maka: 1. 2. untuk 3. Untuk setiap skalar yang taksama dengan nol, maka dan 9. Nilai Eigen dan Vektor Eigen Definisi 2.2: (Anton, 1997: 277) Jika adalah matriks , maka vektor taknol dinamakan vektor eigen (eigenvector) dari jika di dalam adalah kelipatan skalar dari ; yaitu, Untuk suatu skalar . Skalar dinamakan nilai eigen (eigenvalue) dari dan dikatakan vektor eigen yang bersesuaian dengan . Untuk mencari nilai eigen matriks yang berukuran dapat dituliskan sebagai atau secara ekivalen Persamaan di atas akan mempunyai penyelesaian tak nol jika Persamaan (2.1) disebut persamaan karakteristik . maka 18 Skalar yang memenuhi persamaan (2.1) adalah nilai eigen dari diperluas, maka adalah polinom yang disebut polinom karakteristik dari . Polinom karakteristik dari matriks mempunyai bentuk Contoh 11 Diketahui matriks Akan dicari nilai eigen dari matriks dengan maka polinom karakteristik dari persamaan karakteristik dari Jadi diperoleh nilai eigen dari adalah adalah adalah dan Akan dicari vektor eigen dari matriks Jika maka: , diubah ke dalam bentuk persamaan linear, menjadi . Apabila . 19 Solusi non trivial sistem persamaan di atas adalah Misalkan maka Jadi vektor-vektor eigen dari yang bersesuaian dengan adalah vektor-vektor tak nol yang berbentuk: dengan adalah bilangan sebarang yang tidak nol Untuk maka: , diubah ke dalam bentuk persamaan linear, menjadi Solusi non trivial sistem persamaan di atas adalah Misalkan maka Jadi vektor-vektor eigen dari yang bersesuaian dengan adalah vektor-vektor tak nol yang berbentuk: dengan adalah bilangan sebarang yang tidak nol 20 B. Ruang Vektor Euclidean 1. Vektor pada Ruang Berdimensi n Definisi 2.3: (Anton dan Rorres, 2000: 162) Jika n sebuah bilangan bulat positif, maka ordered n-tupel adalah sebuah urutan dari n bilangan real ( , ,..., ). Himpunan semua ordered n-tupel disebut ruang berdimensi n dan dinyatakan dengan . Definisi 2.4: (Anton dan Rorres, 2000: 162) Vektor dan ) pada disebut sama jika = Penjumlahan , = ,..., = . didefinisikan dan jika k suatu skalar sebarang, maka kelipatan skalar Teorema 2.4: (Anton dan Rorres, 2000: 163) Jika adalah vektor-vektor pada (a) (b) (c) (d) (e) (f) (g) , ), dan dan k dan l adalah skalar, maka : . 21 (h) 2. Ruang Euclidean Berdimensi-n Definisi 2.5: (Anton dan Rorres, 2000: 163) Jika dalam dan , maka hasil kali dalam Euclidean ) adalah sebarang vektor didefinisikan sebagai: dengan operasi penjumlahan, perkalian skalar dan hasil kali dalam Euclidean disebut sebagai “ruang Euclidean berdimensi-n”. Teorema 2.5: (Anton dan Rorres, 2000: 164) Jika , , dan adalah vektor-vektor pada dan adalah sebarang skalar, maka: (a) (b) (c) (d) jika dan hanya jika 3. Kombinasi linear Definisi 2.6: (Anton, 1997: 145) Sebuah vektor dinamakan kombinasi linear dari vektor-vektor jika vektor tersebut dapat diungkapkan dalam bentuk , dimana adalah skalar. 22 C. Analisis Multivariat 1. Matriks Data Multivariat Data yang diperoleh dengan mengukur lebih dari satu variabel kriteria pada setiap individu anggota sampel, disebut data multivariat. Dalam data multivariat digunakan notasi ke- untuk menunjukkan nilai tertentu dari variabel yang diamati pada objek ke- . Secara umum, data multivariat dengan objek dan variabel dapat diilustrasikan dalam bentuk berikut: Variabel 1 Variabel 2 Variabel Variabel Objek 1 Objek 2 Objek Objek atau dapat ditulis dalam bentuk matriks berikut: dengan baris dan kolom sebagai 23 2. Vektor Mean dan Matriks Kovariansi 2.1. Vektor Mean, Matriks Kovariansi dan Matriks Korelasi Data Sampel Misalkan adalah pengukuran pada variabel pertama. Rata-rata pengukuran disebut juga rata-rata (mean) sampel ditulis dengan adalah Secara umum mean sampel untuk variabel ke-i bila ada p variabel dan n banyaknya data adalah: Sehingga vektor mean sampel Variansi sampel untuk variabel ke-i adalah Sedangkan kovariansi sampel untuk variabel ke-i dan ke-k adalah dan matriks varians dan kovarians sampel 24 Koefisien korelasi sampel merupakan ukuran hubungan linear antara 2 variabel. Koefisien korelasi sampel untuk variabel ke-i dan ke-k adalah: sehingga diperoleh matriks korelasi sampel 2.2 Vektor Mean, Matriks Kovariansi dan Matriks Korelasi Data Populasi Misalkan matriks random berorde untuk setiap merupakan sebuah vektor random. Mean dari vektor random populasi adalah: Kovariansi dari vektor random adalah untuk 25 Oleh karena , untuk setiap dan dengan maka berlaku: merupakan matriks simetris dengan dan berturut-turut adalah mean populasi dan varians-kovarians populasi. Ukuran hubungan linear antara variabel random dan disebut koefisien korelasi. Koefisien korelasi populasi didefinisikan sebagai rasio kovariansi dengan variansi dan sehingga Matriks koefisien korelasi populasi merupakan matriks simetris , dimana: , berorde 26 D. Analisis Profil Menurut Morisson dalam Mattjik dan Sumertajaya (2011: 101) analisis profil merupakan suatu bagian dari pengujian hipotesis terhadap nilai tengah dari multivariat dengan menggunakan prinsip grafik. Dengan demikian untuk mengetahui perkiraan tentang kemiripan profil baik profil antar perlakuan maupun antar kelompok yang dinyatakan dengan kesejajaran itu, dapat dilihat dari grafik plot antara nilai rataan tiap-tiap perlakuan untuk setiap kelompok (populasi). Misalkan, terdapat rata-rata (mean) populasi merupakan rata-rata respon untuk 4 perlakuan (treatment) pada kelompok pertama, plot dari rata-rata ini dihubungkan oleh garis lurus, dapat dilihat pada Gambar 2.1. 27 Mean response Variables 1 2 3 4 Gambar 2.1. Grafik Profil Profil dapat didefiniskan sebagai kumpulan skor subtes peserta tes pada tes yang diberikan. Analisis profil mengacu pada penentuan kekuatan dan kelemahan kognitif yang dapat digunakan untuk membantu dalam membuat keputusan mengenai diagnosis dan intervensi. Menurut Ding (2001), profil menyediakan tiga jenis informasi untuk setiap kelompok, yaitu level, dispersi dan bentuk (shape). Level profil didefinisikan sebagai rata-rata terbobot dari skor dalam profil, yaitu nilai rata-rata akhir dari variabel. Dispersi profil didefinisikan sebagai ukuran penyebaran jumlah masingmasing skor dalam profil terhadap mean. Ukuran dispersi adalah standar deviasi dari skor setiap kelompok. Dispersi sulit dibuat interpretasi langsung, karena dispersi profil untuk kelompok-kelompok pada umumnya bergantung pada korelasi diantara variabel dalam profil. Menurut Nunnally yang dikutip oleh Ding (2001), cara yang masuk akal untuk menerjemahkan dispersi dari skor adalah membandingkan dispersi dari skor untuk dua kelompok. Bentuk (shape) profil didefinisikan sebagai “up” dan “down” dalam profil dan dapat ditentukan oleh peringkat dari skor. Bentuk profil disebut juga skor ipsative. Skor ipsative adalah 28 perbedaan antara skor subtes dan level profil. Jika skor ipsative positif, itu merupakan puncak profil yang menunjukkan subskor lebih tinggi dari rata-rata skor keseluruhan tes ini. Jika skor ipsative negatif, itu merupakan lembah profil yang menunjukkan subskor lebih rendah dari rata-rata skor keseluruhan tes ini. Titik-titik tinggi dan rendah dalam profil menunjukkan karakteristik menonjol dari kelompok yang menyerupai profil. Ukuran yang dapat memuat shape dan scatter secara bersamaan dari profil adalah pola profil. E. Multidimensional Scaling 1. Pengertian Multidimensional Scaling Multidimensional scaling adalah salah satu metode dalam analisis multivariat yang digunakan untuk mempresentasikan suatu proximities (kedekatan) atau perbedaan antar objek ke dalam sebuah peta. Konsep dasar dari MDS adalah menentukan koordinat posisi untuk setiap objek dalam suatu peta geometri, sehingga jarak antar objek-objek tersebut akan sesuai dengan nilai kedekatan berdasarkan input datanya. Peta geometri tersebut yang disebut spatial maping dan koordinat posisi untuk setiap objek dalam peta spatial disebut nilai skala. Dalam spatial maping, objek-objek penelitian direpresentasikan menjadi titik-titik. Titik-titik yang ditempatkan dalam sebuah peta akan menghasilkan jarak diantara setiap pasang objek. Jarak antara titik satu satu dengan yang lain menggambarkan kemiripan atau perbedaan objek satu dengan objek lainnya. Dua buah objek yang mirip ditunjukkan oleh dua titik yang dekat satu sama lain, serta 29 dua objek yang relatif berbeda ditunjukkan oleh dua titik yang cenderung jauh satu sama lain. Penggambaran objek selanjutnya disebut dengan istilah stimulus (stimuli) dan biasanya dinyatakan dalam peta berdimensi rendah seperti dimensi dua atau tiga, sedangkan peta dimensi berjumlah empat atau lebih akan membuat interpretasi sulit dilakukan sehingga MDS umumnya memakai dua atau tiga dimensi. Peta berdimensi rendah menjadi alat untuk memaksimalkan ukuran kedekatan (proximity measure) di setiap pasangan objek serta jarak antara suatu objek didalam sebuah peta. 2. Prosedur Analisis Data dengan Multidimensional Scaling Pengolahan dan analisis data dilakukan melalui tahapan pembentukan multidimensional scaling sebagai berikut: Perumusan Masalah Input Data Pemilihan Prosedur MDS Penentuan Jumlah Dimensi Penamaan Dimensi Uji Kebaikan Model MDS Gambar 2.2. Skema pembentukan multidimensional scaling 30 2.1 Perumusan Masalah Menurut Supranto (2004: 180) merumuskan masalah mengharuskan peneliti menyebutkan secara khusus maksud untuk apa hasil analisis multidimensional scaling akan digunakan dan memilih stimuli untuk dimasukkan ke dalam analisis. Tujuan yang hendak dicapai dalam analisis multidimensional scaling adalah pengidentifikasian dimensi yang tidak diketahui dan evaluasi objek dengan cara membandingkan setiap pasangan stimuli. 2.2 Input Data Dalam tahap ini, data yang dimasukkan pada multidimensional scaling ini berupa nilai kemiripan atau ketidakmiripan antara setiap pasangan dari n objek, sehingga data yang digunakan berdasarkan pada nilai proximities (kedekatan). Input Data Persepsi Langsung (Similarity Judgement) Tidak Langsung (Atribute Ratings) Preferensi Perankingan Perbandingan Pasangan (Paired Comparison) Gambar 2.3. Input data multidimensional scaling 31 a. Data Persepsi Jika data kemiripan yang harus dikumpulkan, peneliti harus menentukan item yang paling mirip dan yang paling tidak mrip. Beberapa prosedur biasanya digunakan untuk memperoleh persepsi responden di antara stimuli, data yang dihasilkan dapat bersifat langsung (direct) jika merupakan data kemiripan dan tidak langsung (derived) jika merupakan data rating atribut. Direct approaches memiliki keunggulan, yaitu: peneliti tidak harus mengidentifikasi serangkaian atribut. Responden menentukan tingkat kemiripan berdasarkan kriterianya masing-masing. Kelemahannya adalah kriteria tersebut dipengaruhi oleh stimuli yang diteliti. Sebagai contoh, jika berbagai merk motor diteliti pada rentang harga yang sama, maka harga tidak akan dipandang sebagai faktor yang penting. Derived approaches memiliki keunggulan, yaitu: kemudahan dalam identifikasi responden yang memiliki persepsi yang sama atau homogen. Responden dapat mengelompokkan merk berdasar peringkat atribut produk, sehingga memudahkan peneliti dalam memberikan label dimensi. Kelemahannya adalah peneliti harus terlebih dahulu mengembangkan atributatribut relevan. Direct approaches lebih banyak digunakan daripada derived approaches. Direct approaches digunakan untuk menyusun spatial map, sedangkan derived approaches digunakan sebagai dasar interpretasi dimensi pada peta persepsi. 32 b. Data Preferensi Data preferensi mengurutkan stimuli sesuai dengan preferensi responden dari beberapa properti. Sebagai contoh, merk B lebih diminati daripada merk D. Dua prosedur umum yang biasa digunakan untuk memperoleh data preferensi adalah rangking langsung dan perbandingan pasangan stimuli berdasar atribut. Prosedur perangkingan meminta setiap responden membuat peringkat merek dari yang paling disukai sampai yang paling tidak disukai. Metode ini untuk mendapatkan data kemiripan nonmetrik. Dalam prosedur perbandingan berpasangan, responden diberikan selurh kemungkinan pasangan dan di minta untuk mengidentifikasi anggota manakah dari setiap pasangan yang lebih disukai. Dengan cara ini, peneliti memperoleh data eksplisit untuk setiap perbandingan, dan lebih detil daripada perangkingan. 2.3 Pemilihan Prosedur MDS Untuk memilih prosedur MDS tergantung pada pengukuran data persepsi dari preferensi yang akan dilakukan. Dalam pemilihan prosedur yang akan digunakan untuk analisis multidimensional scaling, maka perlu diketahui dua tipe multidimensional scaling yaitu metric multidimensional scaling dan nonmetric multidimensional scaling. Metric multidimensional scaling mengasumsikan bahwa input data adalah metrik dan outputya juga berbentuk metrik, sedangkan nonmetric multidimensional scaling mengasumsikan bahwa data input berskala nominal atau ordinal tetapi hasilnya berbentuk metrik. Jarak yang digambarkan pada peta diasumsikan sebagai skala interval. Menurut 33 Maholtra (2010: 354), prosedur MDS dengan menggunakan data metrik maupun data non metrik akan memberikan hasil yang sama. 2.4 Penentuan Jumlah Dimensi Tujuan dari multidimensional scaling adalah membentuk suatu spatial map yang terbaik (dapat menggambarkan keadaan sesungguhnya) dari suatu data input. Dalam analisis multidimensional scaling (MDS) akan ditentukan lebih dahulu faktor-faktor yang tetap digunakan untuk memperoleh gambaran posisi dalam spatial maping yang terbaik, karena tidak semua faktor tetap digunakan dalam analisis. Untuk menentukan jumlah faktor digunakan dasar analisis faktor dengan sub bahasanya adalah penurunan faktor. Sebuah perbedaan nilai eigen menunjukkan seberapa pentingnya faktor tersebut. Oleh karena itu, akan diperlihatkan bahwa hanya akan tetap menggunakan faktor dengan nilai eigen yang besar. Dalam menentukan sebuah nilai eigen yang cukup besar untuk menggambarkan faktor yang berarti dapat digunakan sebuah teknik penyelesaian yang dikemukakan oleh Catell dalam Andy Field (2005: 632) yaitu untuk menggambarkan grafik masing-masing nilai eigen sebagai sumbu-Y dan faktor-faktor yang berhubungan sebagai sumbu-X. Grafik ini disebut scree plot. Dalam menentukan banyaknya faktor yang digunakan kemungkinan yang dapat terjadi yaitu faktor yang tetap digunakan sejumlah variabel yang ada dan masing-masing berhubungan dengan nilai eigen. Dengan scree plot, masing-masing faktor yang relatif penting menjadi jelas terlihat. 34 Kekhususan scree plot ini adalah banyaknya faktor yang penting kurang dari faktor yang tersedia jika terdapat nilai eigen yang relatif tinggi dan banyak faktor yang memiliki nilai eigen yang relatif rendah, maka scree plot ini memiliki karakteristik bentuk turunan tajam (curam) dan diikuti dengan bagian ekor yang landai. Penentuan jumlah faktor yang penting dapat dilihat pada bagian grafik yang curam, nilai pada sumbu-X yang diapit oleh dua titik yang membentuk grafik curam tersebut menunjukkan banyaknya dimensi yang dapat digunakan dalam spatial mapping. Berikut contoh scree plot dari hasil analisis faktor: 0.14 Nilai Eigen 0.12 0.1 0.08 curam 0.06 0.04 0.02 0 1 2 3 4 5 Faktor Gambar 2.4. Scree Plot Dari grafik scree plot diatas terlihat bahwa bentuk yang curam tepat pada angka dua. Kesimpulannya bahwa dimensi yang digunakan pada spatial mapping berjumlah dua dimensi. Spatial map dapat di analisis dengan software SPSS. Berikut contoh spatial map dengan jumlah dua dimensi: 35 Gambar 2.5. Spatial map dengan dua dimensi 2.5 Penamaan Dimensi Setelah spatial map didapat kemudian dimensi harus diberi nama. Pemberian nama pada dimensi memerlukan beberapa pedoman, yaitu: 1. Meskipun direct similariy judgement diperoleh, penilaian stimulus pada atribut yang dimiliki peneliti masih pelu dikumpulkan. Dengan menggunakan metode statistik seperti regresi, vektor atribut ini dibentuk dalam suatu spatial map. Sumbu-sumbu koordinat kemudian diberi nama sesuai dengan atribut-atribut yang mempunyai tingkat kedekatan yang tinggi. 2. Setelah responden memberikan direct similarity, responden diminta untuk menunjukkan kriteria yang digunakan saat mereka membandingkan 36 stimulus. Kriteria ini bisa digunakan untuk memberikan nama pada dimensi yang terbentuk. 2.6 Uji Kebaikan Model Multidimensional Scaling Untuk mendapatkan model multidimensional scaling yang baik, terdapat beberapa kriteria atau pedoman agar hasil yang didapatkan layak dan dapat digunakan untuk interpretasi selanjutnya, diantaranya pengujian index of fit (R2) dan nilai STRESS. 1. Pengujian index of fit (R2) R2 dalam multidimensional scaling menunjukkan proporsi varians data input yang dapat dijelaskan oleh model multidimensional scaling. Menurut Maholtra yang dikutip oleh Bilson Simamora (2005: 268), R2 yang dapat diterima adalah nilai R2 yang lebih dari 0,6 (semakin besar dianggap semakin layak). 2. Nilai STRESS Nilai Stress menunjukkan proporsi varians perbedaan yang tidak dijelaskan oleh model. Semakin kecil nilai Stress yang didapatkan, semakin baik model multidimensional scaling yang didapatkan. Terdapat berbagai cara untuk menghitung nilai Stress, namun yang paling sering digunakan adalah Kruskal’s STRESS. Untuk Kruskal’s STRESS formula terdapat pedoman untuk mengindikasikan model yang baik bila dilihat dari nilai STRESS dengan menggunakan standar kriteria sebagai berikut: 37 Tabel 2.1. Kriteria nilai STRESS Stress Goodness of fit 20% Poor 10% Fair 5% Good 2,5% 0% Excellent Perfect Sumber: Johnson & Wichern (2007: 708) Goodness of fit mengacu pada hubungan monotonic antara similarities dan jarak akhir (Johnson dan Wichern, 2007: 708). F. Distribusi Empiris Sampel random berukuran dari distribusi probabilitas dinotasikan sebagai (Efron dan Thibshirani, 1993: 31): maka disebut ungsi distribusi empiris yang didefinisikan sebagai distribusi diskrit dengan probabilitas muncul untuk setiap . Jika suatu kejadian kali dalam n kali percobaan, maka mempunyai probabilitas empiris: merupakan jumlah kemunculan proporsi dari sampel . di mana A dinyatakan sebagai 38 G. Prinsip Plug-in Prinsip plug-in merupakan metode sederhana untuk mengestimasi parameter berdasarkan sampel. Estimasi plug-in dari parameter didefinisikan dengan (Efron dan Thibshirani, 1993: 35): Dengan kata lain, fungsi dari distribusi F dengan distribusi empiris yaitu diestimasi dengan mengganti . H. Standar Error Berikut akan dibahas mengenai standard error dan estimasi standar error: 1. Standar error untuk mean Dalam statistika ketepatan suatu estimasi dapat diukur dengan standar error (se). Jika adalah variabel random dengan fngsi probablitas kumulatif F, ekspetasi dan variansinya dinyatakan dalam: dapat juga dinotasikan dengan: Jika mean sampel dengan adalah sampel random berukuran n dari distribusi mempunyai ekspektasi dan variansi , , dinotasikan 39 Dengan kata lain, ekspektasi kali dari variansi sama dengan ekspektasi , tetapi variansi adalah . Dapat disimpulkan bahwa semakin besar n, maka akan semakin kecil, berarti semakin besar n semakin baik nilai ekspektasi Standar error dari mean , disimbolkan . adalah akar dari variansi , 2. Estimasi standar error Dalam mengestimasi standar error dapat menggunakan metode plug-in, yaitu dengan mengganti dengan pada . Estimasi plug-in untuk adalah: Karena dan etimasi standar error I. , untuk sembarang fungsi g. Maka adalah sebagai berikut: Regresi Linier Ganda Regresi linier ganda adalah hubungan antara suatu variabel tak bebas dengan dua atau lebih variabel bebas (Sudjana, 2001). Model regresi linier ganda, dinyatakan sebagai berikut: 40 Jika: adalah variabel tak bebas/dependen pada pengamatan ke-i adalah parameter regresi adalah variabel bebas/independen pada pengamatan ke-i adalah peubah gangguan atau error yang bersifat acak dengan rataan dan ragam ; peragam/kovariansi dan tidak berkorelasi sehingga untuk semua dengan . Bila persamaan (2.15) ditulis dalam bentuk matriks: sehingga model umum regresi linear ganda dalam bentuk matriks dapat dinotasikan sebagai berikut: Model regresi linier ganda dinyatakan dengan persamaan (2.15). Dengan dugaan model sebagai berikut: didapatkan error sebagai berikut: Asumsi-asumsi yang mendasari model tersebut adalah: 1. Normalitas, error mengikuti distrbusi normal dengan rata-rata nol dan variansi , . Statistik uji yang paling sering digunakan untuk menguji asumsi kenormalan error dengan menggunakan data residual 41 adalah Kolmogorov-Smirnov normality test. Selain dengan statistik uji, pemeriksaan kenormalan residual dapat pula dilakukan dengan QQ-Plot. Ciri-ciri dari data yang menyebar normal bila diplotkan dengan QQ-Plot adalah bahwa titk-titk data tersebut tersebar di sekitar garis lurus. Tidak ada autokorelasi antar error, peragam/kovariansi dan tidak berkorelasi sehingga untuk semua dengan . Adanya autokorelasi pada error mengindikasikan bahwa ada satu atau beberapa variabel penting yang mempengaruhi variabel tak bebas yang tidak di masukkan ke dalam model regresi. Pengujian ada tidaknya autokorelasi dapat dilakukan dengan uji Durbin-Watson (DW). Uji ini menghasilkan nilai DW hitung dan nilai DW tabel ( batas atas dan dan ), = nilai = nilai batas bawah pada tingkat signifikansi atau . Rumus uji DW (Gujarati, 2004: 467): dengan = residual pada periode dan = residual pada periode Kriteria Durbin-Watson (Gujarati, 2004: 470): Nilai Hipotesis Nol ada autokorelasi positif tidak ada autokorelasi positif ada korelasi negatif ada korelasi negatif tidak ada autokorelasi, baik positif atau negatif Keputusan menolak tidak dapat disimpulkan menolak tidak dapat disimpulkan tidak menolak 42 2. Homoskedastisitas, , memiliki ragam homogen atau disebut juga dengan tidak adanya masalah heteroskedasitas. Model regresi yang baik adalah memiliki sifat homoskedastisitas. Untuk melihat homoskedastisitas suatu data dalam analisis regresi dapat digunakan diagram pencar (scatterplot). Dasar pengambilan kepuusan menurut Singgih Santoso (2000: 258) adalah sebagai berikut: (1) Jika terdapat suatu pola tertentu dalam diagram pencar di mana titiktitiknya teratur mengikuti pola tertentu yang teratur (bergelombang, melebar kemudian menympit), maka dapat disebut memiliki sifat heteroskedastisitas. (2) Jika dalam diagram pencar titik-titik tersebut menyebar tidak teratur serta tidak berpola maka disebut memiliki sifat homoskedastisitas. 3. Tidak ada multikolinearitas antar variabel bebas . Statistik uji yang tepat adalah dengan Variance Inflation Factor (VIF). Nilai VIF yang lebih besar dari 10 mengindikasikan adanya multikolinearitas yang serius. Dalam regresi liniar ganda menggunakan metode least square untuk estimasi koefisien regresi linier . Metode least square bertujuan mendapatkan penaksiran koefisien regresi, yaitu jumlah kuadrat error, yaitu , dan sekecil mungkin. Prosedur metode kuadrat kecil (least square) adalah sebagai berikut: i. Membentuk , yang menjadikan sebagai fungsi , dan , 43 ii. Mendiferensialkan S terhadap diferensialnya disamakan dengan 0. , dan , kemudian hasil 44 Dan seterusnya hingga p, Persamaan (2.18)-(2.20) disebut sebagai persamaan linier untuk . iii. Menghitung , dan berdasarkan persamaan linier yang terbentuk, Untuk mempermudah menghitung penaksiran koefisisen regresi maka persamaan linier diubah kebentuk matriks, 45 Pada satu matriks dan dua vekor diatas, masing-masing dinamai: matriks vektor (berukuran (p+1)×(p+1)), vektor (berukuran (p+1)×1), dan (juga berukuran (p+1)×1), sehingga persamaan menjadi: didapatkan penaksir koefisien regresi, yaitu b : dengan .