BAB II LANDASAN TEORI Pada bab ini akan menjelaskan mengenai beberapa landasan teori untuk menerapkan regresi nonparametrik yaitu regresi nonparametrik Spline kuadratik dan Theil. 2.1 Derivatif Definisi 2.1 Spiegel (1986 :58 ) Misalkan y = f (x) adalah fungsi dan c berada pada domain f. Derivatif fungsi f pada c dinyatakan dengan f ' (c) , maka f ' (c) = lim ∆x →0 f (c + ∆x) − f (c) ∆x (2.1) Jika nilai limitnya ada. Teorema 2.2 (Aturan Rantai) Fungsi f dan g fungsi-fungsi yang mempunyai derivatif, maka fungsi komposisi f g juga mempunyai derivatif. Jika y = f (u ) dan u = g (x) , maka derivatif y = ( f g )( x) = f ( g ( x)) dy dy du = ⋅ dx du dx (2.2) Bukti : ∆y ∆y ∆u . = ∆x ∆u ∆x Jika u = g (x) mempunyai derivatif, maka ∆u → 0 bila ∆x → 0 6 lim ∆u = lim ∆x. ∆x →0 ∆x →0 ∆u ∆x ∆u ) ∆x →0 ∆x = ( lim ∆x)( lim ∆x →0 = 0. du dx =0 Jadi, ∆y ∆y ∆u )( lim ) = ( lim ∆x → 0 ∆x ∆x →0 ∆u ∆x →0 ∆x lim Sehingga dy dy du = ⋅ dx du dx 2.2 Integral Tak Wajar Definisi 2.3 Baisuni.(1986 : 228) Integral tak wajar adalah suatu integral yang salah satu atau kedua harga limit batas integralnya adalah tak berhingga untuk suatu harga x dalam interval [a,b] sehingga, b b ∫ f ( x)dx = lim ∫ f ( x)dx −∞ a →−∞ ∞ (2.3) a b ∫ f ( x)dx = lim ∫ f ( x)dx a b →∞ (2.4) a Apabila limit di ruas kanan ada dan tak berhingga, maka dikatakan integral tak wajar yang bersangkutan konvergen dan memiliki nilai yang terhingga itu. Jika 7 tidak, integral tersebut disebut divergen. Jika 0 ∞ −∞ 0 ∫ f ( x)dx dan ∫ f ( x)dx ∞ ∫ f ( x)dx konvergen dengan nilai : konvergen maka dikatakan −∞ ∞ 0 ∞ −∞ −∞ 0 ∫ f ( x)dx = ∫ f ( x)dx + ∫ f ( x)dx (2.5) 2.3 Ekspektasi dan Variansi Variansi berperan penting dalam analisis regresi spline kuadratik. Oleh karena itu, akan dibahas dasar teori tentang variansi. Definisi 2.4 Bain (1992 : 67) Jika X adalah variabel random kontinu dengan fungsi densitas probabilitas f(x) , maka nilai ekspektasi dari X didefinisikan sebagai berikut : ∞ E ( X ) = ∫ xf ( x)dx (2.6) −∞ Jika nilai integral ini ada maka dikatakan konvergen absolut, jika tidak maka dikatakan nilai E(X) tidak ada. Jika X variabel random dengan fungsi densitas probabilitas f(x) , a dan b suatu konstanta, g(x) dan h(x) fungsi real dengan domain elemen dari X maka : E [ag ( X ) + bh( X )] = aE [g (x )] + bE [h( X )] Definisi 2.5 Bain (1992:73) Variansi dari variabel random didefinisikan sebagai : [ Var ( X ) = E ( X − µ ) 2 ] ( ) = E (X ) − (E ( X )) = E X 2 − 2 µE ( X ) + µ 2 , µ = E ( X ) 2 2 8 Jika X variabel random, a dan b suatu konstanta, maka : [ Var (aX + b ) = E a 2 ( X − µ ) 2 ] = a 2Var ( X ) 2.4 Jenis Matriks 1. Matriks Bujur Sangkar Matriks bujur sangkar adalah matriks yang banyak baris dan banyak kolomnya sama. Pada matriks bujur sangkar, elemen-elemen a11 , a 22 ,..., a nn disebut sebagai elemen diagonal. Contoh : a11 a A = 21 a n1 a12 a 22 an2 a1n a 2 n a nn (2.7) dengan banyaknya baris = banyaknya kolom = n 2. Matriks Identitas Matriks identitas adalah matriks bujur sangkar yang elemen-elemen pada diagonal utama bernilai satu dan elemen luar diagonalnya bernilai 0. 3. Matriks Simetrik Matriks simetrik adalah matriks bujursangkar yang elemennya simetris secara diagonal, dapat juga dikatakan bahwa matriks simetris adalah matriks yang transposenya sama dengan dirinya sendiri. 4. Matriks Diagonal Matriks diagonal adalah adalah matriks bujursangkar yang semua elemen di luar diagonal utamanya nol 9 5. Matriks Skalar Matriks skalar adalah matriks diagonal yang semua elemennya sama tetapi bukan nol atau satu. 6. Matriks Definit Positif Matriks A dikatakan definit positif bila matriks A merupakan matriks yang simetrik dan aij > 0 ∀ 1 ≤ i ≤ n 2.5 Operasi Matriks 1. Penjumlahan dan Pengurangan Definisi 2.6 Harville (2008 : 3) Penjumlahan dua matriks A dan B didefinisikan sebagai jumlahan elemen seletak pada matriks A dan B. Misalkan [ ] A = Aij mempresentasikan matriks [ ] B = Bij mempresentasikan matriks B dengan A dengan ukuran m x n dan ukuran m x n , maka : [ A + B = Aij + Bij ] Definisi 2.7 Harville (2008 : 3) Pengurangan dua matriks A dan B didefinisikan sebagai pengurangan elemen seletak pada matriks A dan B. Misalkan A dengan ukuran m x n dan [ ] A = Aij mempresentasikan matriks [ ] B = Bij mempresentasikan matriks B dengan ukuran m x n , maka : [ ] [ A − B = A + (− B) = Aij + (− Bij ) = Aij − Bij 10 ] Penjumlahan dan pengurangan sembarang dua buah matriks A dan B dapat terjadi jika kedua matriks itu mempunyai ordo (ukuran) yang sama. Jumlah matriks A+B adalah matriks yang diperoleh dengan menjumlahkan elemenelemen dalam matriks A dengan elemen yang seletak dalam matriks B. Sedangkan pengurangan matriks A-B adalah matriks yang diperoleh dengan mengurangi elemen-elemen dalam matriks A dengan elemen yang seletak dalam matriks B 2. Perkalian Matriks Pada operasi perkalian matriks, jumlah kolom dari faktor pertama A harus sama dengan julah baris dari faktor kedua B agar dapat dibentuk hasil kali AB Am×r × Br ×n = ABm×n Definisi 2.8 Harville (2008 : 2) tentang perkalian matriks dengan skalar Pada konteks matriks dan vektor, suatu bilangan real k disebut sebagai skalar. [ ] Misalkan A = Aij mempresentasikan matriks A dengan ukuran m x n. perkalian matriks A dan suatu skalar k didefinisikan sebagai : [ ] [ kA = k Aij = kAij ] Definisi 2.9 Harville (2008 : 3) tentang perkalian matriks dengan matriks Perkalian matriks A dan B dapat dilakukan bila banyak kolom pada matriks A [ ] berukuran m x sama dengan banyak baris ada matriks B. Misalkan A = Aij [ ] p dan B = Bij berukuran p x n maka C=AB berukuran m x n . 3. Transpose Matriks Dinamakan transpose matriks A( A′) jika baris-baris pada A ditukar menjadi kolom-kolom pada A′ dan sebaliknya. 11 Definisi 2.10 Rencer and Schaalje (2008 : 7) Transpose dari matriks [ ] A = Aij berukuran m x n didefinisikan sebagai [ ] [ ] ′ A′ = Aij = A ji yang berukuruan n x m Beberapa sifat transpose : 1) ( A′)′ = A 2) (k1 A ± k 2 B )′ 3) (kA)′ = kA′ , dengan k adalah skalar sebarang 4) ( AB )′ = B ′A′ = k1 A′ ± k 2 B ′ Bukti : 1) Misalkan A = [Aij ] berukuran m x p dan berdasarkan definisi 2.10 maka ′ ′ ′ ( A′)′ = Aij = A ji = Aij = A [ ] [ ] [ ] 2) Misalkan A = [Aij ] berukuran m x p, B = [Bij ] berukuran m x p . k 1 dan k 2 adalah skalar, berdasarkan Definisi 2.6 dan Definisi 2.10 diperoleh (k1 A ± k 2 B )′ [ = [k ]′ = [k A ]′ ± [k B ]′ B ] = k A′ ± k B ′ = k1 Aij ± k 2 Bij 1 A ji ± k 2 1 ji 1 ij 2 ij 2 3) Misalkan A = [Aij ] berukuran m x p , B = [Bij ] berukuran m x p . k adalah skalar. Berdasarkan Definisi 2.8 dan Definisi 2.10 diperoleh (kA)′ = [kAij ]′ = [kA ji ] = k [A ji ] = kA′ 4) Misalkan A = [Aij ] berukuran m x p , B = [Bij ] berukuran m x p . berdasarkan sifat Definisi 2.9 dan Definisi 2.10 diperoleh 12 ′ p p ( AB ) = ∑ Aik Bkj = ∑ B jk Aki = B ′A′ k =1 k =1 ′ 4. Inverse Matriks Jika A adalah matriks bujur sangkar, dan jika terdapat suatu matriks B yang ukurannya sama seddmikian sehigga AB = BA = I, maka A disebut invertible (dapat dibalik) dan B disebut sebagai invers dari A. Jika matriks B tidak dapat didefinisikan, maka A dinyatakan sebagai matriks singular. 5. Trace Matriks Bila A suatu matriks bujur sangkar, maka jumlah unsur diagonal matriks A adalah trace dengan tr(A), sehingga tr ( A) = a11 + a 22 + ... + a nn = ∑i =1 aii n Lambang tr adalah singkatan dari trace dalam bahasa inggris. Jadi tr(I n ) = n . 2.6 Regresi Linear Sederhana Analisis Regresi Linear Sederhana merupakan analisis regresi yang melibatkan satu variabel prediktor dan satu variabel respons. Hubungan antara variabel berikut: y i = β 0 + β 1 xi + ε i (2.8) dengan yi adalah variabel respons ke-i dengan i = 1.2.....n xi adalah variabel prediktor ke -i dengan i = 1.2.....n β 0 adalah konstan yang merupakan perpotongan dengan sumbu y β1 adalah koefisien regresi ε i adalah error random yang berdistribusi normal independen dengan mean nol dan variansi σ 2 13 2.7 Regresi Nonparametrik Regresi nonparametrik merupakan metode statistika yang digunakan untuk mengetahui hubungan variabel respons dengan variabel prediktor berpola parametrik seperti linier, kuadratik, kubik dan lainnya yang tidak diketahui bentuk fungsinya sehingga regresi nonparametrik sangat mempertahankan fleksibilitas maksudnya dapat menyesuaikan diri dengan karakteristi data. Oleh karena itu, estimasi kurva regresi dapat dilakukan berdasarkan pendekatan yang tidak terikat pada asumsi bentuk kurva tertentu seperti dalam regresi parametrik. Model regresi nonparametrik secara umum adalah sebagai berikut: y i = f ( x i ) + ε i , i= 12,...,n (2.9) y i adalah variabel respons, x i adalah variabel prediktor, f(x i ) adalah fungsi regresi ε i adalah error random yang berdistribusi normal independen dengan mean nol dan variansi σ 2 . Pemilihan fungsi ini biasanya dimotivasi oleh sifat kemulusan (smoothers) yang diasumsikan dimiliki oleh fungsi regresi. Data pengamatan kemudian digunakan untuk mengestimasi fungsi dengan teknik smoothing tertentu. 2.8 Regresi Spline Regresi Spline adalah regresi nonparametrik yang mendekati ke arah pencocokan data dengan tetap memperhitungkan kemulusan kurva. Regresi ini mempunyai keunggulan dalam mengatasi pola data yang menunjukkan naik atau turun yang tajam dengan melibatkan orde dan kemungkinan beberapa titik knot serta kurva yang dihasilkan relatif mulus. Selanjutnya untuk mendapatkan model Spline yang terbaik maka diperlukan estimator Spline yang optimal. Estimator bergantung pada penetuan orde dan titik knot tersebut. Kriteria yang sering 14 digunakan agar orde dan titik knot optimal yaitu dengan menggunakan Generalized Cross Validation (GCV). Berikut penjelasan mengenai orde, titik knot dan GCV 1. Orde Regresi Spline memungkinkan untuk berbagai macam orde sehingga dapat dibentuk regresi berorde 1 (linear) , orde 2 (kuadratik) , orde 3 (kubik ) sampai orde n tergantung dari pola datanya. Orde yang dimaksud dalam regresi Spline ini adalah orde polinomialnya. 2. Titik Knot Knot sebagai suatu titik fokus dalam fungsi spline, atau sering disebut parameter penghalus dalam Spline. Regresi Spline pada hakekatnya merupakan pemilihan lokasi titik knot. Untuk mendapatkan titik knot maka dapat dilakukan dengan cara plot data terlebih dahulu. Setelah itu penentuan titik knot ditentukan dari letak intervensi pada plot tersebut. 3. Generalized Cross Validation (GCV) GCV merupakan suatu metode untuk memilih model berdasarkan ada kemampuan prediksi dari model tersebut. Nilai GCV diperoleh berdasarkan faktor titik knot dalam model regresi Spline. Semakin kecil nilai GCV maka galat pada model Spline juga akan kecil. Menurut (Eubank : 1988) Spline orde q dengan knot ξ 1 , ξ 2 ,..., ξ k diberikan dalam fungsi y dengan bentuk : y i = β 0 + β1 xi + β 2 xi + .. + β q xi + β q +1 ( xi − ξ1 ) q+ + β q + 2 ( xi − ξ 2 ) q+ + ... + 2 β q + K ( xi − ξ K ) q+ + ε i q i = 1, 2,..., n 15 (2.11) ( xi − ξ K ) +q , jika xi ≥ ξ K 0 , jika x i < ξ K q dengan ( x i − ξ K ) + = β adalah parameter model, β 0 adalah intersep, β q+ K adalah slope pada peubah x dan knot ke-K pada Spline berorde q, x adalah variabel respons, ξ K adalah knot ke-K 2.9 Estimasi Kuadrat Terkecil. Terdapat beberapa metode untuk mengestimasi parameter dalam model regresi, salah satunya adalah metode kuadrat terkecil atau Ordinary Least Square. Adapun kelebihan dari metode kuadrat terkecil adalah tidak memerlukan asumsi distribusi sedangkan kekurangan metode ini yaitu sangat sensitif untuk adanya data outlier. Estimasi parameter diperoleh dengan cara meminimalkan jumlah kuadrat error. Akan dicari estimasi koefisien regresi untuk model umum regresi : Y = β 0 + β 1 x1 + β 2 x 2 + ... + β k x k + ε Untuk i=1,2,...,n dimiliki model : Yi = β 0 + β 1 x1i + β 2 x 2i + ... + β k x ki + ε i ( )= σ dengan E (ε i ) = 0 ; E ε i 2 2 (2.12) ; E (ε i ε s ) = 0 ; i ≠ s Model di atas dapat dibentuk ke dalam matriks Y = Xβ + ε dengan 1 X 11 Y1 1 X 21 Y2 Y = X = 1 X Y n1 n X 12 X 22 X n2 X 1k X 2k X nk 16 (2.13) β0 ε1 β1 ε β = ε = 2 β ε k n Sehingga dapat juga ditulis sebagai berikut: Y1 1 X 11 Y2 1 X 21 = Y 1 X n1 n X 12 X 22 X n2 X 1k X 2k X nk β0 ε1 β1 ε 2 + β ε k n dari persamaan (2.13) diperoleh ε = Y − Xβ n S = ∑εi 2 i =1 Prinsip estimasi kuadrat terkecil adalah meminimumkan jumlah kuadrat galat, sehingga ε' ε = (Y − Xβ )' (Y − Xβ ) = Y' Y − Y' Xβ − (Y' Xβ )' +( Xβ )' ( Xβ ) Matriks Y' Xβ = (Y' Xβ )' karena berukuran 1x1, maka ε' ε = Y' Y − 2(Y' Xβ )' + β ' = Y' Y − 2 β' X' Y + β' X' Xβ Estimasi dari parameter diperoleh dengan menyamadengankan nol hasil dari derivatif atau turunan pertama dari jumlah kuadrat errornya, yaitu : ∂ (ε ′ε ) ∂ (Y ′Y − 2β ′X ′Y + β ′X ′Xβ ) = ∂β ∂β ∂ (Y ′Y ) ∂ ( β ′X ′Y ) ∂ ( β ′X ′Xβ ) = −2 + ∂β ∂β ∂β 17 ∂ (ε ′ε ) = −2X ′Y + 2X ′Xβ ∂β Hasil ini harus memenuhi ∂ (ε ′ε ) =0 ∂β (2.14) Penjabaran dari persamaan (2.14) sebagai berikut : ∂ (ε ′ε ) =0 ∂β − 2 X ′Y + 2 X ′Xβ = 0 X ′Xβ = X ′Y ( X ′X )−1 X ′Xβˆ = ( X ′X )−1 X ′Y Iβˆ = ( X ′X ) Y −1 −1 βˆ OLS = ( X ′X ) Y Untuk menunjukkan bahwa (2.15) ε ′ε minimum, maka hasil derivatif pertama dari jumlah kuadrat error harus diturunkan sekali lagi sehingga menghasilkan derivatif atau turunan kedua, dan nilainya harus lebih besar dari nol. ∂ 2 (ε ′ε ) ∂ ∂ (Y ′Y − 2 β ′X ′Y + β ′X ′Xβ ) = ∂β ∂β ∂β 2 ∂ ′ ′ (− 2 X Y + 2X Xβ ) = ∂β = 2 X ′X Jaminan bahwa nilai dari ε ′ε minimum adalah bahwa turunan ke dua dari ε ′ε terhadap β harus bernilai positif. Sehingga nilai ε′ε akan minimum apabila nilai 2 X ′X lebih besar dari nol. Karena matriks X ′X adalah definit positif dengan semua unsur diagonalnya berbentuk kuadrat, maka turunan kedua dari ε ′ε −1 terhadap β bernilai positif yang berarti βˆ OLS = ( X ′X ) Y minimum . 18 2.10 Outlier Outlier adalah data yang terletak jauh dari data yang lainnya dalam suatu data. Menurut Barnett (1981) mendefinisikan outlier sebagai pengamatan yang tidak mengikuti sebagian besar pola dan terletak jauh dari pusat data (dikutip dari Soemartini 2007). Keberadaan dari pencilan akan mengganggu dalam proses menganilisa data. Dalam kaitannya dengan analisis regresi. Outlier dapat menyebabkan hal-hal berikut : - Resuidual yang besar dari model yang terbentuk - Variansi dari data akan menjadi lebih besar - Estimasi interval akan memiliki rentang yang lebih besar Menurut Soemartini (2007) terdapat 3 tipe outlier pada analisis regresi. yaitu sebagai berikut : 1. Vertical Outlier Merupakan pengamatan terpencil pada variabel dependen Y tetapi tidak terpencil pada variabel independen X. Vertical outlier berpengaruh terhadap estimasi kuadrat terkecil. 2. Good leverage point Merupakan pengamatan yang terpencil pada variabel X tetapi terletak dekat dengan garis regresi yang berarti bahwa pengamatan x i menjauh tetapi y i cocok dengan garis regresi. Good leverage point tidak berpengaruh terhadap estimasi kuadrat terkecil, tetapi berpengaruh terhadap inferensi statistik karena dapat menimbulkan standard error 19 3. Bad leverage point Merupakan pengamatan yang terpencil pada variabel X dan juga terletak jauh dari garis regresi. Bad leverage lebih berbahaya dibandingkan vertikal outlier, karena memiliki pengaruh yang sangat besar pada regresi linear klasik. Pada statistik, data outlier harus dilihat terhadap posisi sebaran data lainnya. Metode untuk menetukan batasan dari outlier dalam sebuah analisis antara lain a. Metode Grafis atau Scatter Plot Metode ini dilakukan dengan cara memplot data menggunakan beberapa software statistika. Jika terdapat satu atau beberapa data yang jauh dari pola kumpulan data keseluruhan maka hal ini mengindikasikan adanya outlier. Pencilan akan nampak memisahkan diri dari kumpulan sebagian besar data sehingga kelemahan metode ini adalah keputusan bahwa suatu data merupakan outlier sangat bergantung pada peneliti sendiri. Karena hanya mengandalkan visualisasi grafis. Untuk itu dibutuhkan seseorang yang berpengalaman dalam menginterprestasikan plot tersebut. b. Box Plot Metode ini merupakan yang paling umum yakni dengan menggunakan nilai kuartil dan jangkauan. Kuartil 1,2, dan 3 membagi sebuah urutan data menjadi empat bagian. Jangkauan didefinisikan sebagai selisih kuartil 1 terhadap kuartil 3 atau R (Interquatil Range) = Q 3 -Q 1. Data-data outlier dapat ditentukan yaitu nilai yang kurang dari 1.5 x R terhadap kuartil 1 dan 20 nilai yang lebih dari 1.5 x R terhadap kuartil 3. Rumus kuartil sendriri adalah sebagai berikut : Q1 = (i * n) + 2 dengan 4 i = kuartil. 1 untuk kuartil bawah. 2 untuk median. 3 untuk kuartil atas n = jumlah data Sedangkan ukuran 1 langkah didefinisikan sebagai 1.5 kali dari selisih kuartil atas dan kuartil bawah. Dibawah ini skema identifikasi outlier menggunakan boxplot c. Standardized residual Residual ke-i didefinisikan : eˆ = yˆ i − y i (2.15) Standardized residual ke-i : eˆis = ei MSE , (2.16) ∑ MSE = n 2 i =1 1 eˆ n−k 21 (2.17) MSE adalah rata-rata residual kuadrat. MSE disebut standard error. Standard error merupakan ukuran kebaikan model regresi yang biasa digunakan untuk membandingkan model regresi satu dengan yang lain. Standard error mengukur besarnya variasi model regresi. Semakin kecil nilainya semakin baik model regresi. d. Cook’s Distance Metode ini diperkenalkan oleh Cook dengan rumus sebagai berikut : hii ei 2 Di = 2 kMSE (1 − hii ) (2.18) dengan h ii adalah elemen-elemen diagonal dari matrik H dan k adalah banyaknya variabel respons seperti terlihat pada rumus berikut : Yˆ = Xβˆ = X [( X ' X ) −1 X ' Y ] = X ( X ' X ) −1 X ' Y = HY dengan H = X ( X ' X ) −1 X ' (2.19) Sehingga dapat dikatakan outlier apabila nilai cooks distance lebih dari 4/n dengan n adalah jumlah observasi. 2.11 Teknik Smoothing Teknik smoothing adalah teknik pemulusan yang biasa digunakan untuk menghaluskan suatu data dalam analisis runtun waktu. Untuk melakukan smoothing terhadap suatu data, nilai masa lalu digunakan untuk mendapatkan nilai 22 yang dihaluskan untuk time series. Tujuan dari smoothing adalah untuk membuang variabelitas dari data yang tidak memilik efek sehingga ciri-ciri dari data akan tampak jelas. Smoothing dari data pengamatan {( X i , Yi )}in=1 adalah pendekatan dari rata-rata respons m pada regresi Yi = m( X i ) + ε i , i = 1,2,..., n Jika fungsi regresi m(.) diyakini smooth maka observasi pada titik-titik dekat X akan memuat informasi tentang nilai m(.) pada X, sehingga dengan menggunakan rata-rata lokal ini dapat dipandang sebagai dasar pemikiran dari teknik-teknik smoothing. Secara formal prosedur ini didefinisikan sebagai : mˆ (x ) = n −1 ∑i =1Wni (x ) y i n ˆ ( x) menyatakan dengan {Wni ( x ), i = 1,2,.., n} adalah barisan pembobot dan m estimator dari m(x). Jika {Wni ( x ), i = 1,2,.., n} positif dan untuk semua x,berlaku n −1 ∑i =1Wni (x ) y i = 1 n ˆ ( x) adalah estimasi kuadrat terkecil pada titik x. Hal ini dikarenakan maka m mˆ ( x) adalah solusi minimum dari min θ 1 n 2 W ( x )( y i − θ ) terhadap θ yakni ∑ i =1 ni n 1 n 1 n 2 2 ( )( ) θ W x y Wni (x )( y i − mˆ (x )) − = ∑ ∑ ni i n i =1 n i =1 2.12 Autokorelasi Autokorelasi terjadi akibat adanya hubungan beruntun dari galat model. Maksud dari hubungan beruntun adalah hubungan yang terjadi antara residual pada satu pengamatan dengan pengamatan lain pada variabel yang sama. 23 Hubungan beruntun tersebut mengakibatkan galat tidak independen atau saling bebas. Hal tersebut dapat melanggar asumsi galat model. Oleh karena itu untuk menguji apakah dalam suatu model regresi terdapat korelasi antara kesalahan pada periode t dengan kesalahan pada periode t-1 (sebelumnya) menggunakan uji autokorelasi. Definisi 2.11 (Hanke and Winchen, 2005 :60) Autokorelasi adalah korelasi antara variabel lag pertama atau lag periode selanjutnya dengan dirinya sendiri. Nilai dari korelasi atau disebut dengan koefisien korelasi (γ k ) adalah autokorelasi antara data asli (Y t ) dengan (Y t-k ) yang didefinisikan oleh Hanke and Winchen (2005:61) γk ∑ = n (Y − Y )(Y ∑ (Y − Y ) t = k +1 t −k t n t =1 −Y ) 2 , k = 0,1,2,.. (2.20) t dengan γk Yt = koefisien autokorelasi untuk lag ke k = nilai rata-rata variabel Y = data asli Yt − k = data untuk lag ke k Y 2.13 Kriteria Kelayakan Model Kelayakan model regresi berkaitan dengan seberapa dekat jarak antara data hasil prediksi dengan data yang sebenarnya. Ada beberapa kriteria berbeda yang digunakan untuk membandingkan kelayakan model antara model regresi Theil dengan regresi Spline. Kriteria tersebut adalah Mean Absolut Deviation (MAD), Mean Square Error (MSE), dan Mean Absolute Precentage Error (MAPE). 24 1. MAD (Mean Absolute Deviation) Mengukur ketepatan atau kelayakan dengan merata-rata kesalahan dugaan. MAD paling berguna ketika orang yang menganalisa ingin mengukur kesalahan ramalan dalam unit yang sama sebagai deret asli. MAD merupakan nilai total absolut dari forecast error dibagi dengan data. Atau yang lebih mudah adalah nilai kumulatif absolut error dibagi dengan jumlah observasi. Berikut ini rumus untuk menghitung MAD: n MAD = ∑| e i =1 t | n 2. MSE (Mean Squared Error) Mean squared error biasa disebut juga galat peramalan. Masing-masing kesalahan atau sisa dikuadratkan. Kemudian dijumlahkan dan dibagi dengan jumlah observasi. Pendekatan ini mengatur kesalahan peramalan yangbesar karena kesalahan-kesalahan itu dikuadratkan. Suatu teknik yang menghasilkan kesalahan mungkin lebih baik untuk salah satu yang memiliki kesalahan kecil tapi kadang-kadang menghasilkan sesuatu yang sangat besar. Berikut ini rumus untuk menghitung MSE: n MSE = ∑e 2 i =1 n 3. MAPE (Mean Absolute Percentage Error) MAPE adalah Nilai Tengah Galat Presentase Absolut. Rata-rata persentase kesalahan kuadrat merupakan pengukuran ketelitian dengan cara persentase kesalahan absolute. MAPE dihitung dengan menemukan kesalahan absolut 25 setiap periode, kemudian membaginya dengan nilai observasi pada periode tersebut dan kemudian mencari rata-rata presentase absolut. Berikut ini rumus menghitung MAPE : n MAPE = ∑| PE | i =1 n X − Fi PEi = i Xi dengan (100) 2.14 Indeks Harga Saham Gabungan Indeks harga adalah suatu angka yang digunakan untuk melihat perubahan mengenai harga dalam waktu dan tempat yang sama ataupun berlainan. Indeks harga saham merupakan indikator utama yang menggambarkan pergerakan harga saham. Indeks Harga Saham Gabungan (IHSG) merupakan indeks yang menunjukkan pergerakan harga saham secara umum yang tercatat di bursa efek Indonesia dan menjadi acuan tentang perkembangan saham di pasar modal sebab pergerakan IHSG akan mempengaruhi sikap para investor apakah akan membeli, menahan atau menjual sahamnya. Bursa efek Indonesia berwenang mengeluarkan dan tidak memasukkan satu atau beberapa perusahaan yang tercatat dari perhitungan IHSG, agar IHSG dapat menggambarkan keadaan pasar yang wajar. Ada beberapa faktor yang mempengaruhi perubahan harga saham seperti jumlah uang beredar, produk domestik bruto (PDB), suku bunga, nilai tukar mata uang, tingkat inflasi, dan lain-lain. 2.15. Inflasi Inflasi merupakan keadaan meningkatnya harga-harga secara umum dan terus-menerus. Hal ini akan menurunkan minat investor untuk berinvestasi pada suatu perusahaan. Jika minat investor untuk berinvestasi pada perusahaan 26 turun, maka terjadi penurunan terhadap harga-harga saham perusahaan. Hal ini dapat menyebabkan IHSG menurun. Boediono (1996:162 ) mendefinisikan inflasi merupakan kecenderungan dari harga-harga untuk naik secara umum dan terus menerus dan terdapat dua jenis inflasi yang dijabarkan Bediono diantaranya : 1) Demand Inflation Demand Inflation yaitu inflasi yang timbul karena permintaan masyarakat terhadap komoditi-komoditi hasil produksi di pasar barang. Jenis Inflasi ini sering disebut dengan inflasi murni. 2) Cost-Push Inflation Cost-push inflation yaitu inflasi yang timbul karena kenaikan biaya produksi. Inflasi ini ditandai dengan kenaikan harga serta turunnya jumlah produksi. Keadaan ini timbul dimuali dengan adanya penurunan dalam penawaran biaya produksi. Kenaikan produksi terbsebut akan menaikkan harga dan menurunkan jumlah produksi. 27