6 BAB II LANDASAN TEORI Pada bab ini akan menjelaskan

advertisement
BAB II
LANDASAN TEORI
Pada bab ini akan menjelaskan mengenai beberapa landasan teori untuk
menerapkan regresi nonparametrik yaitu regresi nonparametrik Spline kuadratik
dan Theil.
2.1 Derivatif
Definisi 2.1 Spiegel (1986 :58 )
Misalkan y = f (x) adalah fungsi dan c berada pada domain f. Derivatif fungsi f
pada c dinyatakan dengan f ' (c) , maka
f ' (c) = lim ∆x →0
f (c + ∆x) − f (c)
∆x
(2.1)
Jika nilai limitnya ada.
Teorema 2.2 (Aturan Rantai)
Fungsi f dan g fungsi-fungsi yang mempunyai derivatif, maka fungsi komposisi
f  g juga mempunyai derivatif.
Jika y = f (u ) dan u = g (x) , maka derivatif y = ( f  g )( x) = f ( g ( x))
dy dy du
=
⋅
dx du dx
(2.2)
Bukti :
∆y ∆y ∆u
.
=
∆x ∆u ∆x
Jika u = g (x) mempunyai derivatif, maka ∆u → 0 bila ∆x → 0
6
lim ∆u = lim ∆x.
∆x →0
∆x →0
∆u
∆x
∆u
)
∆x →0 ∆x
= ( lim ∆x)( lim
∆x →0
= 0.
du
dx
=0
Jadi,
∆y
∆y
∆u
)( lim
)
= ( lim
∆x → 0 ∆x
∆x →0 ∆u ∆x →0 ∆x
lim
Sehingga
dy dy du
=
⋅
dx du dx
2.2 Integral Tak Wajar
Definisi 2.3 Baisuni.(1986 : 228)
Integral tak wajar adalah suatu integral yang salah satu atau kedua harga limit
batas integralnya adalah tak berhingga untuk suatu harga x dalam interval [a,b]
sehingga,
b
b
∫ f ( x)dx = lim ∫ f ( x)dx
−∞
a →−∞
∞
(2.3)
a
b
∫ f ( x)dx = lim ∫ f ( x)dx
a
b →∞
(2.4)
a
Apabila limit di ruas kanan ada dan tak berhingga, maka dikatakan integral tak
wajar yang bersangkutan konvergen dan memiliki nilai yang terhingga itu. Jika
7
tidak, integral tersebut disebut divergen. Jika
0
∞
−∞
0
∫ f ( x)dx dan ∫ f ( x)dx
∞
∫ f ( x)dx konvergen dengan nilai :
konvergen maka dikatakan
−∞
∞
0
∞
−∞
−∞
0
∫ f ( x)dx = ∫ f ( x)dx + ∫ f ( x)dx
(2.5)
2.3 Ekspektasi dan Variansi
Variansi berperan penting dalam analisis regresi spline kuadratik. Oleh karena itu,
akan dibahas dasar teori tentang variansi.
Definisi 2.4 Bain (1992 : 67)
Jika X adalah variabel random kontinu dengan fungsi densitas probabilitas f(x) ,
maka nilai ekspektasi dari X didefinisikan sebagai berikut :
∞
E ( X ) = ∫ xf ( x)dx
(2.6)
−∞
Jika nilai integral ini ada maka dikatakan konvergen absolut, jika tidak maka
dikatakan nilai E(X) tidak ada. Jika X variabel random dengan fungsi densitas
probabilitas f(x) , a dan b suatu konstanta, g(x) dan h(x) fungsi real dengan
domain elemen dari X maka :
E [ag ( X ) + bh( X )] = aE [g (x )] + bE [h( X )]
Definisi 2.5 Bain (1992:73)
Variansi dari variabel random didefinisikan sebagai :
[
Var ( X ) = E ( X − µ )
2
]
( )
= E (X ) − (E ( X ))
= E X 2 − 2 µE ( X ) + µ 2 , µ = E ( X )
2
2
8
Jika X variabel random, a dan b suatu konstanta, maka :
[
Var (aX + b ) = E a 2 ( X − µ )
2
]
= a 2Var ( X )
2.4 Jenis Matriks
1. Matriks Bujur Sangkar
Matriks bujur sangkar adalah matriks yang banyak baris dan banyak kolomnya
sama. Pada matriks bujur sangkar, elemen-elemen a11 , a 22 ,..., a nn disebut
sebagai elemen diagonal.
Contoh :
 a11
a
A =  21
 

a n1
a12
a 22

an2
 a1n 
 a 2 n 
  

 a nn 
(2.7)
dengan banyaknya baris = banyaknya kolom = n
2. Matriks Identitas
Matriks identitas adalah matriks bujur sangkar yang elemen-elemen pada
diagonal utama bernilai satu dan elemen luar diagonalnya bernilai 0.
3. Matriks Simetrik
Matriks simetrik adalah matriks bujursangkar yang elemennya simetris secara
diagonal, dapat juga dikatakan bahwa matriks simetris adalah matriks yang
transposenya sama dengan dirinya sendiri.
4. Matriks Diagonal
Matriks diagonal adalah adalah matriks bujursangkar yang semua elemen di
luar diagonal utamanya nol
9
5. Matriks Skalar
Matriks skalar adalah matriks diagonal yang semua elemennya sama tetapi
bukan nol atau satu.
6. Matriks Definit Positif
Matriks A dikatakan definit positif bila matriks A merupakan matriks yang
simetrik dan aij > 0 ∀ 1 ≤ i ≤ n
2.5 Operasi Matriks
1. Penjumlahan dan Pengurangan
Definisi 2.6 Harville (2008 : 3)
Penjumlahan dua matriks A dan B didefinisikan sebagai jumlahan elemen
seletak pada matriks A dan B. Misalkan
[ ]
A = Aij mempresentasikan matriks
[ ]
B = Bij mempresentasikan matriks B dengan
A dengan ukuran m x n dan
ukuran m x n , maka :
[
A + B = Aij + Bij
]
Definisi 2.7 Harville (2008 : 3)
Pengurangan dua matriks A dan B didefinisikan sebagai pengurangan elemen
seletak pada matriks A dan B. Misalkan
A dengan ukuran m x n dan
[ ]
A = Aij mempresentasikan matriks
[ ]
B = Bij mempresentasikan matriks B dengan
ukuran m x n , maka :
[
] [
A − B = A + (− B) = Aij + (− Bij ) = Aij − Bij
10
]
Penjumlahan dan pengurangan sembarang dua buah matriks A dan B dapat
terjadi jika kedua matriks itu mempunyai ordo (ukuran) yang sama. Jumlah
matriks A+B adalah matriks yang diperoleh dengan menjumlahkan elemenelemen dalam matriks A dengan elemen yang seletak dalam matriks B.
Sedangkan pengurangan matriks A-B adalah matriks yang diperoleh dengan
mengurangi elemen-elemen dalam matriks A dengan elemen yang seletak
dalam matriks B
2. Perkalian Matriks
Pada operasi perkalian matriks, jumlah kolom dari faktor pertama A harus
sama dengan julah baris dari faktor kedua B agar dapat dibentuk hasil kali AB
Am×r × Br ×n = ABm×n
Definisi 2.8 Harville (2008 : 2) tentang perkalian matriks dengan skalar
Pada konteks matriks dan vektor, suatu bilangan real k disebut sebagai skalar.
[ ]
Misalkan A = Aij mempresentasikan matriks A dengan ukuran m x n.
perkalian matriks A dan suatu skalar k didefinisikan sebagai :
[ ] [
kA = k Aij = kAij
]
Definisi 2.9 Harville (2008 : 3) tentang perkalian matriks dengan matriks
Perkalian matriks A dan B dapat dilakukan bila banyak kolom pada matriks A
[ ] berukuran m x
sama dengan banyak baris ada matriks B. Misalkan A = Aij
[ ]
p dan B = Bij berukuran p x n maka C=AB berukuran m x n .
3. Transpose Matriks
Dinamakan transpose matriks A( A′) jika baris-baris pada A ditukar menjadi
kolom-kolom pada A′ dan sebaliknya.
11
Definisi 2.10 Rencer and Schaalje (2008 : 7) Transpose dari matriks
[ ]
A = Aij
berukuran m x n didefinisikan sebagai
[ ] [ ]
′
A′ = Aij = A ji yang berukuruan n x m
Beberapa sifat transpose :
1)
( A′)′ = A
2)
(k1 A ± k 2 B )′
3)
(kA)′ = kA′ , dengan k adalah skalar sebarang
4)
( AB )′ = B ′A′
= k1 A′ ± k 2 B ′
Bukti :
1) Misalkan A = [Aij ] berukuran m x p dan berdasarkan definisi 2.10 maka
′
′
′
( A′)′ =  Aij  = A ji = Aij = A


[ ]
[ ] [ ]
2) Misalkan A = [Aij ] berukuran m x p, B = [Bij ] berukuran m x p . k 1 dan k 2
adalah skalar, berdasarkan Definisi 2.6 dan Definisi 2.10 diperoleh
(k1 A ± k 2 B )′
[
= [k
]′ = [k A ]′ ± [k B ]′
B ] = k A′ ± k B ′
= k1 Aij ± k 2 Bij
1
A ji ± k 2
1
ji
1
ij
2
ij
2
3) Misalkan A = [Aij ] berukuran m x p , B = [Bij ] berukuran m x p . k adalah
skalar. Berdasarkan Definisi 2.8 dan Definisi 2.10 diperoleh
(kA)′ = [kAij ]′ = [kA ji ] = k [A ji ] = kA′
4) Misalkan A = [Aij ] berukuran m x p , B = [Bij ] berukuran m x p .
berdasarkan sifat Definisi 2.9 dan Definisi 2.10 diperoleh
12
′
 p
  p

( AB ) =  ∑ Aik Bkj  =  ∑ B jk Aki  = B ′A′
 k =1
  k =1

′
4. Inverse Matriks
Jika A adalah matriks bujur sangkar, dan jika terdapat suatu matriks B yang
ukurannya sama seddmikian sehigga AB = BA = I, maka A disebut invertible
(dapat dibalik) dan B disebut sebagai invers dari A. Jika matriks B tidak dapat
didefinisikan, maka A dinyatakan sebagai matriks singular.
5. Trace Matriks
Bila A suatu matriks bujur sangkar, maka jumlah unsur diagonal matriks A
adalah trace dengan tr(A), sehingga
tr ( A) = a11 + a 22 + ... + a nn = ∑i =1 aii
n
Lambang tr adalah singkatan dari trace dalam bahasa inggris. Jadi tr(I n ) = n .
2.6 Regresi Linear Sederhana
Analisis Regresi Linear Sederhana merupakan analisis regresi yang
melibatkan satu variabel prediktor dan satu variabel respons. Hubungan antara
variabel berikut:
y i = β 0 + β 1 xi + ε i
(2.8)
dengan
yi adalah variabel respons ke-i dengan i = 1.2.....n
xi adalah variabel prediktor ke -i dengan i = 1.2.....n
β 0 adalah konstan yang merupakan perpotongan dengan sumbu y
β1 adalah koefisien regresi
ε i adalah error random yang berdistribusi normal independen dengan mean nol
dan variansi σ 2
13
2.7 Regresi Nonparametrik
Regresi nonparametrik merupakan metode statistika yang digunakan untuk
mengetahui hubungan variabel respons dengan variabel prediktor berpola
parametrik seperti linier, kuadratik, kubik dan lainnya yang tidak diketahui bentuk
fungsinya sehingga regresi nonparametrik sangat mempertahankan fleksibilitas
maksudnya dapat menyesuaikan diri dengan karakteristi data. Oleh karena itu,
estimasi kurva regresi dapat dilakukan berdasarkan pendekatan yang tidak terikat
pada asumsi bentuk kurva tertentu seperti dalam regresi parametrik. Model regresi
nonparametrik secara umum adalah sebagai berikut:
y i = f ( x i ) + ε i , i= 12,...,n
(2.9)
y i adalah variabel respons, x i adalah variabel prediktor, f(x i ) adalah fungsi regresi
ε i adalah error random yang berdistribusi normal independen dengan mean nol
dan variansi σ 2 . Pemilihan fungsi ini biasanya dimotivasi oleh sifat kemulusan
(smoothers) yang diasumsikan dimiliki oleh fungsi regresi. Data pengamatan
kemudian digunakan untuk mengestimasi fungsi dengan teknik smoothing
tertentu.
2.8 Regresi Spline
Regresi Spline adalah regresi nonparametrik yang mendekati ke arah
pencocokan data dengan tetap memperhitungkan kemulusan kurva. Regresi ini
mempunyai keunggulan dalam mengatasi pola data yang menunjukkan naik atau
turun yang tajam dengan melibatkan orde dan kemungkinan beberapa titik knot
serta kurva yang dihasilkan relatif mulus. Selanjutnya untuk mendapatkan model
Spline yang terbaik maka diperlukan estimator Spline yang optimal. Estimator
bergantung pada penetuan orde dan titik knot tersebut. Kriteria yang sering
14
digunakan agar orde dan titik knot optimal yaitu dengan menggunakan
Generalized Cross Validation (GCV).
Berikut penjelasan mengenai orde, titik knot dan GCV
1. Orde
Regresi Spline memungkinkan untuk berbagai macam orde sehingga dapat
dibentuk regresi berorde 1 (linear) , orde 2 (kuadratik) , orde 3 (kubik )
sampai orde n tergantung dari pola datanya. Orde yang dimaksud dalam
regresi Spline ini adalah orde polinomialnya.
2. Titik Knot
Knot sebagai suatu titik fokus dalam fungsi spline, atau sering disebut
parameter penghalus dalam Spline. Regresi Spline pada hakekatnya
merupakan pemilihan lokasi titik knot. Untuk mendapatkan titik knot maka
dapat dilakukan dengan cara plot data terlebih dahulu. Setelah itu penentuan
titik knot ditentukan dari letak intervensi pada plot tersebut.
3. Generalized Cross Validation (GCV)
GCV merupakan suatu metode untuk memilih model berdasarkan ada
kemampuan prediksi dari model tersebut. Nilai GCV diperoleh berdasarkan
faktor titik knot dalam model regresi Spline. Semakin kecil nilai GCV maka
galat pada model Spline juga akan kecil.
Menurut (Eubank : 1988) Spline orde q dengan knot ξ 1 , ξ 2 ,..., ξ k diberikan
dalam fungsi y dengan bentuk :
y i = β 0 + β1 xi + β 2 xi + .. + β q xi + β q +1 ( xi − ξ1 ) q+ + β q + 2 ( xi − ξ 2 ) q+ + ... +
2
β q + K ( xi − ξ K ) q+ + ε i
q
i = 1, 2,..., n
15
(2.11)
( xi − ξ K ) +q
, jika xi ≥ ξ K
0
, jika x i < ξ K
q
dengan ( x i − ξ K ) + =
β adalah parameter model, β 0 adalah intersep,
β q+ K adalah slope pada
peubah x dan knot ke-K pada Spline berorde q, x adalah variabel respons,
ξ K adalah knot ke-K
2.9 Estimasi Kuadrat Terkecil.
Terdapat beberapa metode untuk mengestimasi parameter dalam model
regresi, salah satunya adalah metode kuadrat terkecil atau Ordinary Least Square.
Adapun kelebihan dari metode kuadrat terkecil adalah tidak memerlukan asumsi
distribusi sedangkan kekurangan metode ini yaitu sangat sensitif untuk adanya
data outlier. Estimasi parameter diperoleh dengan cara meminimalkan jumlah
kuadrat error. Akan dicari estimasi koefisien regresi untuk model umum regresi :
Y = β 0 + β 1 x1 + β 2 x 2 + ... + β k x k + ε
Untuk i=1,2,...,n dimiliki model :
Yi = β 0 + β 1 x1i + β 2 x 2i + ... + β k x ki + ε i
( )= σ
dengan E (ε i ) = 0 ; E ε i
2
2
(2.12)
; E (ε i ε s ) = 0 ; i ≠ s
Model di atas dapat dibentuk ke dalam matriks
Y = Xβ + ε
dengan
1 X 11
 Y1 

 
1 X 21
 Y2 
Y =  X =




 
1 X
Y 
n1

 n
X 12
X 22

X n2
 X 1k 

 X 2k 

 

 X nk 
16
(2.13)
 β0 
 ε1 
 
 
 β1 
ε 
β =  ε = 2


 
 
β 
ε 
 k
 n
Sehingga dapat juga ditulis sebagai berikut:
 Y1  1 X 11
  
 Y2  1 X 21
   = 

  
 Y  1 X
n1
 n 
X 12
X 22

X n2
 X 1k 

 X 2k 

 

 X nk 
 β0   ε1 
   
 β1   ε 2 
  +  
   
 β  ε 
 k  n
dari persamaan (2.13) diperoleh
ε = Y − Xβ
n
S = ∑εi
2
i =1
Prinsip estimasi kuadrat terkecil adalah meminimumkan jumlah kuadrat galat,
sehingga
ε' ε = (Y − Xβ )' (Y − Xβ )
= Y' Y − Y' Xβ − (Y' Xβ )' +( Xβ )' ( Xβ )
Matriks Y' Xβ = (Y' Xβ )' karena berukuran 1x1, maka
ε' ε = Y' Y − 2(Y' Xβ )' + β '
= Y' Y − 2 β' X' Y + β' X' Xβ
Estimasi dari parameter diperoleh dengan menyamadengankan nol hasil dari
derivatif atau turunan pertama dari jumlah kuadrat errornya, yaitu :
∂ (ε ′ε ) ∂ (Y ′Y − 2β ′X ′Y + β ′X ′Xβ )
=
∂β
∂β
∂ (Y ′Y )
∂ ( β ′X ′Y ) ∂ ( β ′X ′Xβ )
=
−2
+
∂β
∂β
∂β
17
∂ (ε ′ε )
= −2X ′Y + 2X ′Xβ
∂β
Hasil ini harus memenuhi
∂ (ε ′ε )
=0
∂β
(2.14)
Penjabaran dari persamaan (2.14) sebagai berikut :
∂ (ε ′ε )
=0
∂β
− 2 X ′Y + 2 X ′Xβ = 0
X ′Xβ = X ′Y
( X ′X )−1 X ′Xβˆ = ( X ′X )−1 X ′Y
Iβˆ = ( X ′X ) Y
−1
−1
βˆ OLS = ( X ′X ) Y
Untuk menunjukkan bahwa
(2.15)
ε ′ε minimum, maka hasil derivatif pertama dari
jumlah kuadrat error harus diturunkan sekali lagi sehingga menghasilkan derivatif
atau turunan kedua, dan nilainya harus lebih besar dari nol.
∂ 2 (ε ′ε ) ∂  ∂ (Y ′Y − 2 β ′X ′Y + β ′X ′Xβ ) 


=
∂β 
∂β
∂β 2

∂
′
′
(− 2 X Y + 2X Xβ )
=
∂β
= 2 X ′X
Jaminan bahwa nilai dari ε ′ε minimum adalah bahwa turunan ke dua dari ε ′ε
terhadap β harus bernilai positif. Sehingga nilai ε′ε akan minimum apabila nilai
2 X ′X lebih besar dari nol. Karena matriks X ′X adalah definit positif dengan
semua unsur diagonalnya berbentuk kuadrat, maka turunan kedua dari ε ′ε
−1
terhadap β bernilai positif yang berarti βˆ OLS = ( X ′X ) Y minimum .
18
2.10 Outlier
Outlier adalah data yang terletak jauh dari data yang lainnya dalam suatu
data. Menurut Barnett (1981) mendefinisikan outlier sebagai pengamatan yang
tidak mengikuti sebagian besar pola dan terletak jauh dari pusat data (dikutip dari
Soemartini 2007). Keberadaan dari pencilan akan mengganggu dalam proses
menganilisa data. Dalam kaitannya dengan analisis regresi. Outlier dapat
menyebabkan hal-hal berikut :
-
Resuidual yang besar dari model yang terbentuk
-
Variansi dari data akan menjadi lebih besar
-
Estimasi interval akan memiliki rentang yang lebih besar
Menurut Soemartini (2007) terdapat 3 tipe outlier pada analisis regresi.
yaitu sebagai berikut :
1. Vertical Outlier
Merupakan pengamatan terpencil pada variabel dependen Y tetapi tidak
terpencil pada variabel independen X. Vertical outlier berpengaruh terhadap
estimasi kuadrat terkecil.
2. Good leverage point
Merupakan pengamatan yang terpencil pada variabel X tetapi terletak dekat
dengan garis regresi yang berarti bahwa pengamatan x i menjauh tetapi y i
cocok dengan garis regresi. Good leverage point tidak berpengaruh terhadap
estimasi kuadrat terkecil, tetapi berpengaruh terhadap inferensi statistik
karena dapat menimbulkan standard error
19
3. Bad leverage point
Merupakan pengamatan yang terpencil pada variabel X dan juga terletak
jauh dari garis regresi. Bad leverage lebih berbahaya dibandingkan vertikal
outlier, karena memiliki pengaruh yang sangat besar pada regresi linear
klasik.
Pada statistik, data outlier harus dilihat terhadap posisi sebaran data
lainnya. Metode untuk menetukan batasan dari outlier dalam sebuah analisis
antara lain
a. Metode Grafis atau Scatter Plot
Metode ini dilakukan dengan cara memplot data menggunakan beberapa
software statistika. Jika terdapat satu atau beberapa data yang jauh dari
pola kumpulan data keseluruhan maka hal ini mengindikasikan adanya
outlier. Pencilan akan nampak memisahkan diri dari kumpulan sebagian
besar data sehingga kelemahan metode ini adalah keputusan bahwa suatu
data merupakan outlier sangat bergantung pada peneliti sendiri. Karena
hanya mengandalkan visualisasi grafis. Untuk itu dibutuhkan seseorang
yang berpengalaman dalam menginterprestasikan plot tersebut.
b. Box Plot
Metode ini merupakan yang paling umum yakni dengan menggunakan
nilai kuartil dan jangkauan. Kuartil 1,2, dan 3 membagi sebuah urutan data
menjadi empat bagian. Jangkauan didefinisikan sebagai selisih kuartil 1
terhadap kuartil 3 atau R (Interquatil Range) = Q 3 -Q 1. Data-data outlier
dapat ditentukan yaitu nilai yang kurang dari 1.5 x R terhadap kuartil 1 dan
20
nilai yang lebih dari 1.5 x R terhadap kuartil 3. Rumus kuartil sendriri
adalah sebagai berikut :
Q1 =
(i * n) + 2
dengan
4
i = kuartil. 1 untuk kuartil bawah. 2 untuk median. 3 untuk kuartil atas
n = jumlah data
Sedangkan ukuran 1 langkah didefinisikan sebagai 1.5 kali dari selisih
kuartil atas dan kuartil bawah.
Dibawah ini skema identifikasi outlier menggunakan boxplot
c. Standardized residual
Residual ke-i didefinisikan :
eˆ = yˆ i − y i
(2.15)
Standardized residual ke-i :
eˆis =
ei
MSE
,
(2.16)
∑
MSE =
n
2
i =1 1
eˆ
n−k
21
(2.17)
MSE adalah rata-rata residual kuadrat.
MSE disebut standard error.
Standard error merupakan ukuran kebaikan model regresi yang biasa
digunakan untuk membandingkan model regresi satu dengan yang lain.
Standard error mengukur besarnya variasi model regresi. Semakin kecil
nilainya semakin baik model regresi.
d. Cook’s Distance
Metode ini diperkenalkan oleh Cook dengan rumus sebagai berikut :
 hii  ei 2 


Di = 
2 

kMSE
 (1 − hii ) 

(2.18)
dengan h ii adalah elemen-elemen diagonal dari matrik H dan k adalah
banyaknya variabel respons seperti terlihat pada rumus berikut :
Yˆ = Xβˆ
= X [( X ' X ) −1 X ' Y ]
= X ( X ' X ) −1 X ' Y
= HY
dengan
H = X ( X ' X ) −1 X '
(2.19)
Sehingga dapat dikatakan outlier apabila nilai cooks distance lebih dari 4/n
dengan n adalah jumlah observasi.
2.11 Teknik Smoothing
Teknik smoothing adalah teknik pemulusan yang biasa digunakan untuk
menghaluskan suatu data dalam analisis runtun waktu. Untuk melakukan
smoothing terhadap suatu data, nilai masa lalu digunakan untuk mendapatkan nilai
22
yang dihaluskan untuk time series. Tujuan dari smoothing adalah untuk
membuang variabelitas dari data yang tidak memilik efek sehingga ciri-ciri dari
data akan tampak jelas. Smoothing dari data pengamatan
{( X i , Yi )}in=1
adalah
pendekatan dari rata-rata respons m pada regresi
Yi = m( X i ) + ε i , i = 1,2,..., n
Jika fungsi regresi m(.) diyakini smooth maka observasi pada titik-titik dekat X
akan memuat informasi tentang nilai m(.) pada X, sehingga dengan menggunakan
rata-rata lokal ini dapat dipandang sebagai dasar pemikiran dari teknik-teknik
smoothing. Secara formal prosedur ini didefinisikan sebagai :
mˆ (x ) = n −1 ∑i =1Wni (x ) y i
n
ˆ ( x) menyatakan
dengan {Wni ( x ), i = 1,2,.., n} adalah barisan pembobot dan m
estimator dari m(x). Jika {Wni ( x ), i = 1,2,.., n} positif dan untuk semua x,berlaku
n −1 ∑i =1Wni (x ) y i = 1
n
ˆ ( x) adalah estimasi kuadrat terkecil pada titik x. Hal ini dikarenakan
maka m
mˆ ( x) adalah solusi minimum dari
min θ
1 n
2
W ( x )( y i − θ ) terhadap θ yakni
∑
i =1 ni
n
1 n
1 n
2
2
(
)(
)
θ
W
x
y
Wni (x )( y i − mˆ (x ))
−
=
∑
∑
ni
i
n i =1
n i =1
2.12 Autokorelasi
Autokorelasi terjadi akibat adanya hubungan beruntun dari galat model.
Maksud dari hubungan beruntun adalah hubungan yang terjadi antara residual
pada satu pengamatan dengan pengamatan lain pada variabel yang sama.
23
Hubungan beruntun tersebut mengakibatkan galat tidak independen atau saling
bebas. Hal tersebut dapat melanggar asumsi galat model. Oleh karena itu untuk
menguji apakah dalam suatu model regresi terdapat korelasi antara kesalahan pada
periode t dengan kesalahan pada periode t-1 (sebelumnya) menggunakan uji
autokorelasi.
Definisi 2.11 (Hanke and Winchen, 2005 :60)
Autokorelasi adalah korelasi antara variabel lag pertama atau lag periode
selanjutnya dengan dirinya sendiri. Nilai dari korelasi atau disebut dengan
koefisien korelasi (γ k ) adalah autokorelasi antara data asli (Y t ) dengan (Y t-k ) yang
didefinisikan oleh Hanke and Winchen (2005:61)
γk
∑
=
n
(Y − Y )(Y
∑ (Y − Y )
t = k +1
t −k
t
n
t =1
−Y )
2
, k = 0,1,2,..
(2.20)
t
dengan
γk
Yt
= koefisien autokorelasi untuk lag ke k
= nilai rata-rata variabel Y
= data asli
Yt − k
= data untuk lag ke k
Y
2.13 Kriteria Kelayakan Model
Kelayakan model regresi berkaitan dengan seberapa dekat jarak antara
data hasil prediksi dengan data yang sebenarnya. Ada beberapa kriteria berbeda
yang digunakan untuk membandingkan kelayakan model antara model regresi
Theil dengan regresi Spline. Kriteria tersebut adalah Mean Absolut Deviation
(MAD), Mean Square Error (MSE), dan Mean Absolute Precentage Error
(MAPE).
24
1. MAD (Mean Absolute Deviation)
Mengukur ketepatan atau kelayakan dengan merata-rata kesalahan dugaan.
MAD paling berguna ketika orang yang menganalisa ingin mengukur kesalahan
ramalan dalam unit yang sama sebagai deret asli. MAD merupakan nilai total
absolut dari forecast error dibagi dengan data. Atau yang lebih mudah
adalah nilai kumulatif absolut error dibagi dengan jumlah observasi.
Berikut ini rumus untuk menghitung MAD:
n
MAD =
∑| e
i =1
t
|
n
2. MSE (Mean Squared Error)
Mean squared error biasa disebut juga galat peramalan. Masing-masing
kesalahan atau sisa dikuadratkan. Kemudian dijumlahkan dan dibagi dengan
jumlah observasi. Pendekatan ini mengatur kesalahan peramalan yangbesar
karena kesalahan-kesalahan itu dikuadratkan. Suatu teknik yang menghasilkan
kesalahan mungkin lebih baik untuk salah satu yang memiliki kesalahan kecil
tapi kadang-kadang menghasilkan sesuatu yang sangat besar. Berikut ini rumus
untuk menghitung MSE:
n
MSE =
∑e
2
i =1
n
3. MAPE (Mean Absolute Percentage Error)
MAPE adalah Nilai Tengah Galat Presentase Absolut. Rata-rata persentase
kesalahan kuadrat merupakan pengukuran ketelitian dengan cara persentase
kesalahan absolute. MAPE dihitung dengan menemukan kesalahan absolut
25
setiap periode, kemudian membaginya dengan nilai observasi pada periode
tersebut dan kemudian mencari rata-rata presentase absolut. Berikut ini rumus
menghitung MAPE :
n
MAPE =
∑| PE |
i =1
n
 X − Fi
PEi =  i
 Xi
dengan

(100)

2.14 Indeks Harga Saham Gabungan
Indeks harga adalah suatu angka yang digunakan untuk melihat
perubahan mengenai harga dalam waktu dan tempat yang sama ataupun
berlainan.
Indeks
harga
saham
merupakan
indikator
utama
yang
menggambarkan pergerakan harga saham. Indeks Harga Saham Gabungan
(IHSG) merupakan indeks yang menunjukkan pergerakan harga saham secara
umum yang tercatat di bursa efek Indonesia dan menjadi acuan tentang
perkembangan saham di pasar modal sebab pergerakan IHSG akan
mempengaruhi sikap para investor apakah akan membeli, menahan atau
menjual sahamnya. Bursa efek Indonesia berwenang mengeluarkan dan tidak
memasukkan satu atau beberapa perusahaan yang tercatat dari perhitungan
IHSG, agar IHSG dapat menggambarkan keadaan pasar yang wajar. Ada
beberapa faktor yang mempengaruhi perubahan harga saham seperti jumlah
uang beredar, produk domestik bruto (PDB), suku bunga, nilai tukar mata
uang, tingkat inflasi, dan lain-lain.
2.15. Inflasi
Inflasi merupakan keadaan meningkatnya harga-harga secara umum
dan terus-menerus. Hal ini akan menurunkan minat investor untuk berinvestasi
pada suatu perusahaan. Jika minat investor untuk berinvestasi pada perusahaan
26
turun, maka terjadi penurunan terhadap harga-harga saham perusahaan. Hal ini
dapat menyebabkan IHSG menurun. Boediono (1996:162 ) mendefinisikan
inflasi merupakan kecenderungan dari harga-harga untuk naik secara umum
dan terus menerus dan terdapat dua jenis inflasi yang dijabarkan Bediono
diantaranya :
1) Demand Inflation
Demand Inflation yaitu inflasi yang timbul karena permintaan masyarakat
terhadap komoditi-komoditi hasil produksi di pasar barang. Jenis Inflasi
ini sering disebut dengan inflasi murni.
2) Cost-Push Inflation
Cost-push inflation yaitu inflasi yang timbul karena kenaikan biaya
produksi. Inflasi ini ditandai dengan kenaikan harga serta turunnya jumlah
produksi. Keadaan ini timbul dimuali dengan adanya penurunan dalam
penawaran biaya produksi. Kenaikan produksi terbsebut akan menaikkan
harga dan menurunkan jumlah produksi.
27
Download