AGUS TRI BASUKI PENGANTAR EKONOMETRIKA (DILENGKAPI PENGGUNAAN EVIEWS) 0 | BAHAN AJAR EKONOMETRIKA 1 PENGANTAR EKONOMETRIKA (DILENGKAPI PENGGUNAAN EVIEWS) Katalog Dalam Terbitan (KDT) Agus Tri Basuki.; PENGANTAR EKONOMETRIKA (DILENGKAPI PENGGUNAAN EVIEWS) - Yogyakarta : 2016 135 hal.; 17,5 X 24,5 cm Edisi Pertama, Cetakan Pertama, 2016 Edisi Revisi, 2017 Hak Cipta 2015 pada Penulis © Hak Cipta Dilindungi oleh Undang-Undang Dilarang memperbanyak atau memindahkan sebagian atau seluruh isi buku ini dalam bentuk apapun, secara elektronis maupun mekanis, termasuk memfotokopi, merekam, atau dengan teknik perekaman lainnya, tanpa izin tertulis dari penerbit Penulis Desain Cover : Agus Tri Basuki : Yusuf Arifin ISBN : Penerbit : Danisa Media Banyumeneng, V/15 Banyuraden, Gamping, Sleman Telp. (0274) 7447007 Email : [email protected] 1 | BAHAN AJAR EKONOMETRIKA 1 KATA PENGANTAR Segala puji bagi Allah yang telah memberikan kami kemudahan sehingga dapat menyelesaikan bahan ajar EKONOMETRIKA 1. Tanpa pertolongan-Nya penulis tidak akan sanggup menyelesaikan bahan ajar ini dengan baik. Shalawat dan salam semoga terlimpahkan kepada baginda tercinta nabi kita yakni Nabi Muhammad SAW. Salah satu ciri penelitian kuantitatif adalah menggunakan statistik. Analisis regresi dalam statistika adalah salah satu metode untuk menentukan hubungan sebab-akibat antara satu variabel dengan variabel yang lain. Buku ini membahas tentang pengertian regresi, penghitungan regresi secara manual, serta manfaat regresi dalam penelitian ekonomi dan bisnis. Buku ini kami tujukan untuk para mahasiswa yang sedang mengambil mata kuliah Ekonometri, baik program S1 dan S2 bidang ekonomi. Untuk itu, dalam buku ini kami menjelaskan berbagai materi tentang konsep dasar regresi, serta pengujian asumsi klasik dan cara perbaikan pelanggaran asumisi klasik. Sehingga dengan demikian buku ini akan membantu mereka untuk mendapatkan kemampuan dalam menganalisis data dengan alat analisis regresi linear. Semoga buku ini dapat memberikan pengetahuan yang lebih luas kepada pembaca. Walaupun buku ini memiliki banyak kekurangan. Penulis membutuhkan kritik dan saran dari pembaca yang membangun. Terima kasih. Yogyakarta, 19 Desember 2017 Penulis 2 | BAHAN AJAR EKONOMETRIKA 1 DAFTAR ISI Halaman Judul Kata Pengantar Daftar Isi Bab 1 Konsep Dasar Ekonometrika 1 Bab 2 Regresi Sederhana 6 Bab 3 Regresi Berganda 36 Bab 4 Variabel Dummy Dalam Regresi 54 Bab 5 Uji Asumsi Klasik 59 Bab 6 Perbaikan Pelanggaran Asumsi Klasik 80 Bab 7 Analisis Regresi dengan EViews 108 Bab 8 Interpolasi Data 117 Bab 9 Menyamakan Tahun Dasar 125 Daftar Pustaka 3 | BAHAN AJAR EKONOMETRIKA 1 BAB 1 KONSEP DASAR EKONOMETRIKA 1.1. Konsep Dasar Ekonometrik Ekonometrika adalah penggunaan analisis komputer serta teknik pembuatan model untuk menjelaskan hubungan antara kekuatankekuatan ekonomi utama seperti ketenagakerjaan, modal, suku bunga, dan kebijakan pemerintah dalam pengertian matematis, kemudian menguji pengaruh dari perubahan dalam skenario ekonomi. Syahrul (2000:150) Koutsoyiannis A. (1977). Econometrics is a combination of economic theory, mathematical economics, and statistics, but it is completely distinct from each one of these three branches of science. "The application of mathematical statistics to economic data to lend empirical support to models constructed by mathematical economics and to obtain numerical estimates” (Samuelson et al., Econometrica, 1954) 1 | BAHAN AJAR EKONOMETRIKA 1 Berdasarkan beberapa pengertian di atas, maka dapat disimpulkan bahwa ekonometrika merupakan cabang dari ilmu ekonomi dengan menggunakan dan menerapkan matematika dan statistika untuk memecahkan masalah-masalah ekonomi yang dibuat dalam suatu model ekonometrik yang kemudian diestimasi hasilnya dan diuji lagi kesesuaiannya dengan teori ekonomi yang sudah ada. Metode kuantitatif dalam ilmu ekonomi sebenarnya telah lama dikembangkan sejak abad ke-18. Vilfredo Pareto (Paris, 15 Juli 1848 Jenewa, 19 Agustus 1923) berkontribusi dalam menjelaskan distribusi pendapatan dan pilihan individu melalui pendekatan matematis yang berdasarkan atas teori ekonomi. Selain Pareto, Marie-Esprit-Léon Walras dari Perancis pada abad ke-18 mengembangkan teori keseimbangan umum yang menjelaskan mengenai aliran barang dan jasa dalam perekonomian. Pada awal tahun 1950-an ekonometri dikembangkan sebagai satu cabang sendiri dari ilmu ekonomi. Jan Tinbergen dari Belanda, yang kini namanya diabadikan sebagai salah satu institusi akademik besar di Eropa (Tinbergen Institute), merupakan salah tokoh utama yang mengembangkan ilmu ini. Berdasarkan sedikit penjelasan diatas dapat kita lihat bahwa, konsep dasar dari ilmu ekonometrik adalah mengkaji beberapa teori ekonomi sebelumnya dengan melakukan suatu analisis yang dapat dipertanggungjawabkan melalui matematika dan statistika. Sehingga, kita dapat mengetahui apakah teori ekonomi yang ada benar-benar dapat diaplikasikan pada suatu kasus tertentu atau pada suatu wilayah tertentu. Hasil dari analisis ekonomi ini bisa mendukung teori sehingga kita dapat melakukan forecasting (peramalan) selain itu hasilnya bisa menolak teori sehingga perlu adanya perbaikan teori. 2 | BAHAN AJAR EKONOMETRIKA 1 1.2. Metodologi ekonometrika Penelitian ekonometri biasanya mengikuti prosedur sbb: Teori Ekonomi (1) Spesifikasi model ekonometrika (2) Pengumpulan data yang relevan (3) Pendugaan parameter model (4) Inferensi statistik (5) Terima teori jika data cocok dengan teori (6) Tolak teori jika data tidak cocok dengan teori (6) Peramalan (7)) Perbaikan teori atau teori baru (7) Sumber : Damodar Gujarati, 1978 Menguji langkah 2 s/d 5 (8) Gambar 1.1. Prosedur Penelitian Ekonometrika Langkah – langkah dalam metodologi penelitian ekonometrika yaitu sebagai berikut : Langkah 1 Model yang akan dibagun harus didasrkan kepada teori ekonomi (Teori Ekonomi Mikro, Teori Ekonomi Makro dan Teori ekonomi Pembangunan) Langkah 2 Menspesifikasikan model, meliputi : a. Variable bebas atau variable penjelas maupun variable terikat yang akan dimasukkan ke dalam model. 3 | BAHAN AJAR EKONOMETRIKA 1 b. Asumsi – asumsi a priori mengenai nilai dan tanda parameter dari model. c. Bentuk matematik dari model. Langkah 3 Penaksiran model dengan metode ekonometrika yang tepat, meliputi : a. Pengumpulan data. b. Menyelidiki ada tidaknya pelanggaran asumsi klasik. c. Menyelidiki syarat identifikasi jika modelnya mengandung lebih dari satu persamaan. d. Memilih teknik ekonometrika yang tepat untuk penaksiran model. Langkah 4 Evaluasi atau pengujian untuk memutuskan apakah taksiran – taksiran terhadap parameter sudah bermakna secara teoritis dan nyata secara statistic, meliputi : a. Kriteria a priori ekonomi b. Kriteria statistic c. Kriteria ekonometri Langkah 5 Menguji kekuatan peramalan model. Langkah 6 Inferensi Statistik Apakah hasil uji statistic dan ekonometrik mendukung teori, jika tidak mendukung ulangi cek data kembali serta beri alas an pendukung mengapai hasil tidak sesuai dengan teori. 1.3. Membedakan konsep regresi, kausalitas dan korelasi Ekonometrik disini tidak terlepas dari ilmu statistika dan matematika. statistika yang lazim digunakan juga akan masuk dalam ekonometrik. berikut ada beberapa tehnik analisis yang akan sering digunakan dalam analisis ekonometrik: 1. Regresi 2. Korelasi 3. Kausalitas 4. forecasting 4 | BAHAN AJAR EKONOMETRIKA 1 Regresi menunjukkan hubungan pengaruh satu arah yaitu variabel independen ke variabel dependen, sedangkan kausalitas menunjukkan hubungan dua arah. Dan Analisis korelasi bertujuan untuk mengukur kuatnya tingkat hubungan linear antara dua variabel. selain tehnik analisis, data merupakan suatu hal yang akan sangat mempengaruhi analsis yang akan digunakan dalam ekonometrik. karena data akan mempengaruhi seberapa besar tingkat presisi dari analisis tersebut. ada 3 jenis data: Cross sectional artinya itu data yang dikumpulkan dalam satu waktu. Contoh : data PDRB provinsi di Indonesia tahun 2013 Time series artinya data yang dikumpulkan dalam satu series waktu. Contoh: data PDRB DIY tahun 1990-2013 Panel merupakan data gabungan cross sectional dan time series. Contoh: data PDRB provinsi di seluruh Indonesia tahun 1997-2012 Ilmu Ekonometri juga memiliki kelebihan dan kelemahan. Kelebihan menggunakan model ekonometri dalam penelitian seringkali membuka perpesktif dan temuan-temuan baru namun untuk mendapatkan hal tersebut membutuhkan keahlian khusus pada berbagai bidang ilmu sehingga membutuhkan banyak waktu. Kelemahan membutuhkan keahlian khusus pada berbagai bidang ilmu sehingga membutuhkan waktu untuk mempelajarinya. 1.4. PENGGOLONGAN EKONOMETRIKA Ekonometrika digolongkan menjadi 2 yaitu sebagai berikut : 1. Ekonometrika Teoritik Berkaitan dengan pengembangan metode-metode yang cocok untuk mengukur hubungan-hubungan ekonomi yang ditetapkan dalam model ekonometrika. 2. Ekonometrika Terapan Membahas penggunaan atau penerapan metode ekonomi yang telah dikembangkan dalam ekonometrik terapan. 5 | BAHAN AJAR EKONOMETRIKA 1 BAB 2 REGRESI SEDERHANA 2.1. Regresi Istilah regresi dikemukakan untuk pertama kali oleh seorang antropolog dan ahli meteorology Francis Galton dalam artikelnya “Family Likeness in Stature” pada tahun 1886. Ada juga sumber lain yang menyatakan istilah regresi pertama kali mucul dalam pidato Francis Galton didepan Section H of The British Association di Aberdeen, 1855, yang dimuat di majalah Nature September 1855 dan dalam sebuah makalah “Regression towards mediocrity in hereditary stature”, yang dimuat dalam Journal of The Antrhopological Institute (Draper and Smith, 1992). Studinya ini menghasilkan apa yang dikenal dengan hukum regresi universal tentang tingginya anggota suatu masyarakat. Hukum tersebut menyatakan bahwa distribusi tinggi suatu masyarakat tidak mengalami perubahan yang besar sekali antar generasi. Hal ini dijelaskan Galton berdasarkan fakta yang memperlihatkan adanya kecenderungan mundurnya (regress) tinggi rata-rata anak dari orang tua dengan tinggi tertentu menuju tinggi rata-rata seluruh anggota masyarakat. Ini berarti terjadi penyusutan ke arah keadaan sekarang. Tetapi sekarang istilah 6 | BAHAN AJAR EKONOMETRIKA 1 regresi telah diberikan makna yang jauh berbeda dari yang dimaksudkan oleh Galton. Secara luas analisis regresi diartikan sebagai suatu analisis tentang ketergantungan suatu variabel kepada variabel lain yaitu variabel bebas dalam rangka membuat estimasi atau prediksi dari nilai rata-rata variabel tergantung dengan diketahuinya nilai variabel bebas. 2.2. Konsep Dasar Model regresi merupakan suatu cara formal untuk mengekspresikan dua unsur penting suatu hubungan statistik : 1. Suatu kecenderungan berubahnya peubah tidak bebas Y secara sistematis sejalan dengan berubahnya peubah besar X. 2. Perpencaran titik-titik di ser kurva hubungan statistik itu. Kedua ciri ini disatukan dalam suatu model regresi dengan cara mempostulatkan bahwa : 1. Ada suatu rencana peluang peubah Y untuk setiap taraf (level) peubah X. 2. Rataan sebaran-sebaran peluang berubah secara sistematis sejalan dengan berubahnya nilai peubah X. Misalkanlah Y menyatakan konsumsi dan X menyatakan pendapatan konsumen. Dalam hal ini di dalam model regresi peubah X diperlakukan sebagai suatu peubah acak. Untuk setiap skore pendapatan, ada sebaran peluang bagi X. Gambar 2.1. menunjukkan sebaran peluang demikian ini untuk X = 30, yaitu konsumsi sebesar 27,87. Tabel 2.1. Nilai amatan X yang sesungguhnya (30 dalam contoh ini) dengan demikian dipandang sebagai suatu amatan acak dari sebaran peluang ini. Tabel 2.1. No 1 2 3 4 5 6 7 8 9 10 Y 10 12 15 19 22 25 27 29 33 35 X 11 14 17 22 24 28 30 31 35 40 No 11 12 13 14 15 16 17 18 19 20 Y 38 40 45 49 52 55 57 60 64 67 7 | BAHAN AJAR EKONOMETRIKA 1 X 42 45 49 52 55 57 60 65 67 71 No Y X 21 70 74 22 74 79 23 77 85 24 80 88 25 84 90 26 90 95 27 92 97 28 95 99 29 98 110 30 100 120 Pendapatan X 90 60 Garis Regresi 30 0 Distribusi Peluang bagi Y Konsumsi Gambar 2.1. Representasi Gambar bagi Model Regresi Linear Gambar 2.1. juga menunjukkan sebaran peluang Y untuk ukuran lot X = 60 dan X = 90. Perhatikan bahwa rataan sebaran-sebaran peluang ini mempunyai hubungan yang sistematis dengan taraf-taraf peubah X. Hubungan sistematis ini dinamakan fungsi regresi X terhadap Y. Grafik fungsi regresi ini dinamakan kurva regresi. Perhatikan bahwa fungsi regresi dalam Gambar 2.1. adalah linear. Ini berimplikasi untuk contoh bahwa pendapatan bervariasi secara linear dengan konsumsi. Tentu saja tidak ada alasan apriori mengapa pendapatan mempunyai hubungan linear dengan konsumsi. Dua model regresi mungkin saja berbeda dalam hal bentuk fungsi regresinya, dalam hal bentuk sebaran peluang bagi peubah X, atau dalam hal lainnya lagi. Apapun perbedaannya, konsep sebaran peluang bagi X untuk Y yang diketahui merupakan pasangan formal bagi diagram pencar dalam suatu relasi statistik. Begitu pula, kurva regresi, yang menjelaskan hubungan antara rataan sebaran-sebaran peluang bagi X dengan Y, merupakan pasangan formal bagi kecenderungan umum bervariasinya X secara sistematis terhadap Y dalam suatu hubungan statistik. Ungkapan “peubah bebas” atau “peubah peramal” bagi X dan “peubah tak bebas” atau “peubah respons” bagi Y dalam suatu model regresi adalah kebiasaan saja. Tidak ada implikasi bahwa Y bergantung secara kausal pada X. Betapa pun kuatnya suatu hubungan statistik, ini tidak 8 | BAHAN AJAR EKONOMETRIKA 1 berimplikasi adanya hubungan sebab-akibat. Dalam kenyataannya, suatu peubah bebas mungkin saja sesungguhnya bergantung secara kausal pada peubah responsnya, seperti bila menduga suhu (respons) dari tinggi air raksa (peubah bebas) dalam suatu termometer. 2.3. Bentuk Fungsional Hubungan Regresi Pemilihan bentuk fungsional hubungan regresi terkait dengan pemilihan peubah bebasnya. Ada kalanya, teori bilang ilmu bersangkutan bisa menunjukkan bentuk fungsional yang cocok. Teori belajar, misalnya, mungkin mengindikasikan bahwa fungsi regresi yang menghubungkan biaya produksi dengan berapa kali suatu item tertentu telah pernah muncul harus memiliki bentuk tertentu dengan sifat-sifat asimtotik tertentu pula. Yang lebih sering dijumpai adalah bahwa bentuk fungsional hubungan regresi tersebut tidak diketahui sebelumnya, sehingga harus ditetapkan setelah datanya diperoleh dan dianalisis. Oleh karenanya, fungsi regresi linier atau kuadratik sering digunakan sebagai suatu model yang cukup memuaskan bagi fungsi regresi yang tidak diketahui bentuknya. Bahkan, kedua jenis fungsi regresi yang sederhana itu masih juga sering digunakan meskipun teori yang mendasarinya menunjukkan bentuk fungsionalnya, terutama bila bentuk fungsional yang ditunjukkan oleh teori terlalu rumit namun secara logis bisa dihampiri oleh suatu fungsi linier atau kuadratik. 2.4. Kegunaan Analisis Regresi Analisis regresi setidak-tidaknya memiliki 3 kegunaan, yaitu : 1. untuk tujuan deskripsi dari fenomena data atau kasus yang sedang diteliti, regresi mampu mendeskripsikan fenomena data melalui terbentuknya suatu model hubungan yang bersifat numerik 2. untuk tujuan control, regresi juga dapat digunakan untuk melakukan pengendalian (kontrol) terhadap suatu kasus atau hal-hal yang sedang diamati melalui penggunaan model regresi yang diperoleh, serta 3. sebagai prediksi. model regresi juga dapat dimanfaatkan untuk melakukan prediksi variabel terikat 2.5. Model Regresi Linear Sederhana dengan sebaran Suku-suku Galat Tidak Diketahui 2.5.1. Model Bentuk umum fungsi regresinya linear berikut: 9 | BAHAN AJAR EKONOMETRIKA 1 dapat dituliskan sebagai Yi = 0 + 1Xi + i (2.1) Dalam hal ini : Yi adalah nilai perubahan respons dalam amatan ke-i 0 dan 1 adalah parameter Xi adalah konstanta yang diketahui, yaitu nilai peubah bebas dari amatan ke-i 1 adalah suku galat yang bersifat acak dengan rataan E{i} = 0 dan ragam 2{i} = 2; i dan j tidak berkorelasi sehingga peragam (covariance) {I, j} = 0 untuk semua i, j; i j i = 1, 2, . . . ., n Model regresi (2.1) dikatakan sederhana, linear dalam parameter, dan linier dalam peubah bebas. Dikatakan “sederhana” karena hanya ada satu peubah bebas, “linear dalam parameter” karena tidak ada parameter yang muncul sebagai salah satu eksponen atau dikalikan atau dibagi oleh parameter lain, dan “linear dalam peubah bebas” sebab peubah ini di dalam model berpangkat satu. Model yang linear dalam parameter dan linear dalam peubah bebas juga dinamakan model ordopertama. 2.5.2. Ciri-Ciri Penting Model Regresi 1. Nilai Yi teramati pada amatan ke-i merupakan jumlah dua komponen yaitu : a. suku konstan 0 + 1Xi dan b. suku galat i. Jadi Yi adalah suatu peubah acak. 1. Karena E{i} = 0, maka peroleh : E{Yi} = E{0 + 1Xi + i} = 0 + 1Xi + E{i} = 0 + 1Xi 0 + 1Xi memainkan peranan sebagai konstanta. Jadi, respons Yi bila nilai X pada amatan ke-i adalah Xi berasal dari suatu sebaran peluang yang rataannya adalah : E{Yi} = 0 + 1Xi (2.2) oleh karena itu peroleh fungsi regresi bagi model (2.1), yaitu : E{Y} = 0 + 1X 10 | B A H A N A J A R E K O N O M E T R I K A 1 (2.3) Karena fungsi regresi menghubungkan rataan sebaran peluang bagi Y untuk X tertentu dengan nilai X itu sendiri. 3. Nilai teramati Y pada amatan ke-i lebih besar atau lebih kecil daripada nilai fungsi regresi dengan selisih sebesar i. 4. Setiap suku galat i diasumsikan mempunyai ragam yang sama 2. oleh karenanya, respons Yi mempunyai ragam yang sama pula : 2 {Yi} = 2 (2.4) Karena, berdasarkan sifat variansi, memperoleh : 2{0 + 1Xi + i} = 2 {i) = 2 Jadi, model regresi (2.4) mengasumsikan bahwa sebaran peluang bagi Y mempunyai ragam yang sama 2, tidak tergantung pada nilai peubah bebas X. 5. Suku-suku galat diasumsikan tidak berkorelasi. Oleh karenanya, hasil dari setiap amatan manapun yang mempengaruhi galat dari amatan lain yang manapun baik posotof atau negatif, kecil atau besar. Karena galat, i dan j tidak berkorelasi, maka begitu juga dengan respons Yi dengan Yj. 6. Ringkasan model regresi mengimplementasikan bahwa peubah respons Yi bersal dari sebaran peluang dengan rataan E{Yi) = 0 + 1Xi dan ragam 2 yang sama untuk semua nilai X. lebih lanjut, dua amatan sembarang Yi dan dan Yj tidak berkorelasi. Misalkan bahwa model regresi (2.1) dapat diterapkan pada contoh hubungan pendapatan dengan konsumsi dan model itu sebagai berikut : (lihat data 2.1.) Yi = 0,484499 + 0,9199Xi + i Pada Gambar 1.1 dapat dilihat fungsi regresi : E{Y} = 0,484499 + 0,9199Xi 11 | B A H A N A J A R E K O N O M E T R I K A 1 Y1 = 62 (Y1) = 2.8 E(Y1) = 59.2 E(Y) =0,48+0,92X 2 0 40 X Pendapatan Gambar 2.2. Misalnya bahwa suatu pendapatan Xi = 60 dan ternyata konsumsi yang teramati ialah Y1 = 57. maka galatnya ialah I = +1,74, karena E{Y1) = 0,48 + 0,92(60) = 55.26 dan Yi = 57 = 55,26+1,74 Gambar 2.2 memperlihatkan sebaran peluang bagi Y untuk X= 60, dan memperlihatkan dari mana di dalam sebaran ini amatan Y1 = 62 beasal. Perhatikan sekali lagi bahwa suku galat I tidak lain adalah simpangan Yi dari nilai rataannya E(Yi). Gambar 2.2 juga memperhatikan sebaran peluang bagi Y bila X = 90. Perhatikan bahwa sebaran ini mempunyai ragam yang sama seperti sebaran peluang bagi Y untuk X = 90, sesuai dengan persyaratan model regresi (2.1). 2.5.3. Makna Parameter Regresi Kedua parameter 0 dan 1 dalam model regresi (2.1) dinamakan koefisien regresi. 1 adalah kemiringan (slope) garis regresi. Kemiringan menunjukkan perubahan rataan sebaran peluang bagi Y untuk stiap kenaikan X satu satuan. Parameter 0 adalah nilai intersep Y garis regresi tersebut. Bila cakupan model tidak mencakup X = 0, maka 0 mempunyai makna sebagai rerata. 12 | B A H A N A J A R E K O N O M E T R I K A 1 Gambar 2.3. memperlihatkan fungsi regresi : E(Y) = 0,484499 + 0,9199 Xi bagi contoh hubungan pendapatan dengan konsumsi. Kemiringan 1=0,9199 menunjukkan bahwa kenaikan pendapatan satu satuan akan menaikkan rataan sebaran peluang bagi Y sebesar 0,9199 satuan. Konsumsi Y E(Y) = 0,48 + 0,92 X 50 1 = 0,92 Kemirinagn X 0 = 0,4845 0 10 20 30 40 x Pendapatan Gambar 2.3. Fungsi regresi E(Y) = 0,484499 + 0,9199 Xi Intersep 0 = 0,4845 menunjukkan nilai fungsi pada X = 0. karena model regresi linear ini diformulasikan untuk diterapkan pada pendapatan yang berkisar antara 11 sampai 120, maka dalam hal ini 0 mempunyai makna rata-rata konsumsi pada waktu X sama dengan nol adalah sebesar 0,4845. 2.5.4. Metode Kuadrat Terkecil Tujuan metode kuadrat terkecil adalah menemukan nilai dugaan b0 dan b1 yang menghasilkan jumlah kesalahan kuadrat minimum. Dalam pengertian tertentu, yang segera akan bahas, nilai dugaan itu akan menghasilkan fungsi regresi linier yang “baik”. Penduga Kuadrat Terkecil. Penduga b0 dan b1 yang memenuhi kriterium kuadrat terkecil dapat ditemukan dalam dua cara berikut : 13 | B A H A N A J A R E K O N O M E T R I K A 1 Pendekatan Pertama, digunakan suatu prosedur pencarian numerik. Prosedur ini untuk berbagai nilai dugaan b0 dan b1 yang berbeda sampai diperoleh nilai dugaan yang meminimumkan. Pendekatan kedua adalah menemukan nilai-nilai b0 dan b1 secara analitis yang meminimumkan Jumlah Kesalahan Kuadrat (∑e2) . Pendekatan analitis mungkin dilakukan bila model regresinya secara sistematis tidak terlalu rumit, seperti halnya di sini. Dapat diperlihatkan nilai-nilai b0 dan b1 yang meminimumkan (∑e2) untuk data sampel yang dimiliki diberikan oleh sistem persamaan linear berikut : yi nb0 b1 X i X 1Yi b0 X i b1 X i2 (2.5a) (2.5b) Persamaan (2.5a) dan (2.5b) dinamakan persamaan normal; b0 dan b1 dinamakan penduga titik (point estimator) bagi 0 dan 1. Besaran-besaran Yi, Xi, dan seterusnya di dalam (2.5) dihitung dari amatan-amatan sampel(Xi, Yi). Dengan demikian, kedua persamaan itu bisa diselesaikan. Untuk memperoleh b0 dan b1 bisa dihitung secara langsung menggunakan rumus : X i Yi X i X Yi Y n b1 2 2 Xi Xi X 2 Xi n 1 b0 Yi bi X i Y b1 X n X iYi (2.6a) (2.6b) dalam hal ini X dan Y berturut-turut adalah rataan Xi dan rataan Yi. Persamaan normal (2.5) dapat diturunkan secara kalkulus. Untuk suatu data amatan (Xi, Yi), besaran ∑e2 dalam (2.1) merupakan suatu fungsi 0 dan 1 yang meminimumkan ∑e2 dapat diturunkan dengan cara mendiferensialkan: ∑e2 = ∑(Yi - 0 - 1Xi)2 terhadap 0 dan 1 . peroleh: Q 2 (Yi 0 1 X i ) 0 Q 2 X i (Yi 0 1 X i ) 1 14 | B A H A N A J A R E K O N O M E T R I K A 1 (2.7) (2.8) Selanjutnya kedua turunan parsial ini disamakan dengan nol, dan dengan menggunakan b0 dan b1 untuk menyatakan 0 dan 1 yang meminimumkan (∑e2), maka: (Y X ) 0 X (Y X ) 0 i i 0 1 i (2.9) i 0 1 (2.10) i Sistem persamaan ini dinamakan persamaan normal. Dengan menyelesaikan persamaan-persamaan normal ini diperoleh: b1 n X iYi ( X i )( Yi ) n X i2 ( X i )2 b0 Y b1 X (2.11) (2.12) Rumus terakhir ini merupakan versi lain dari rumusan yang telah disajikan di depan, namun akan menghjasilkan nilai yang sama (pembaca dapat membuktikannya). Penduga kuadrat terkecil ini ialah penduga tak bias dan merupakan fungsi linear dari Yi , yaitu: a. E (b0 ) 0 dan E(b1 ) 1 (jadi merupakan penduga tak bias). b. b1 n X iYi ( X i )( Yi ) n X i2 ( X i )2 ( X X )Y k Y ( X X ) i i 2 i i i dimana: ki (X X ) ( X X ) (2.13) 1 Yi X kiYi bYi i n (2.14) i 2 i b0 dimana: 1 bi ( Xki ) n 15 | B A H A N A J A R E K O N O M E T R I K A 1 (2.15) (jadi baik b1 maupun b0 merupakan kombinasi linear atau fungsi linear dari Yi ). 2.6. Asumsi-Asumsi Metode Kuadrat Terkecil Metode OLS yang dikenal sebagai metode Gaussian merupakan landasan utama di dalam teori ekonometrika. Metode OLS ini dibangun dengan menggunakan asumsi-asumsi tertentu. Misalkan mempunyai model regresi populasi sederhana sbb: Yi 0 1 X i ei (2.16) Asumsi yang berkaitan dengan model garis regresi linier dua variabel tersebut adalah sbb: Asumsi 1 Hubungan antara Y (variabel dependen) dan X (variabel independen) adalah linier dalam parameter. Model regresi yang linier dalam parameter dapat dilihat dalam persamaan (2.16). Dalam hal ini 1 berhubungan linier terhadap Y. Asumsi 2 Variabel X adalah variabel tidak stokastik yang nilainya tetap. Nilai X adalah tetap untuk berbagai observasi yang berulang-ulang. Kembali dalam kasus hubungan jumlah permintaan barang dengan tingkat harganya, untuk mengetahui tingkat variasi jumlah permintaan barang maka melakukan berbagai observasi pada tingkat harga tertentu. Jadi dengan sampel yang berulang-ulang nilai variabel independen (X) adalah tetap atau dengan kata lain variabel independen (X) adalah variabel yang dikontrol. Asumsi 3 Nila harapan (expected value) atau rata-rata dari variabel gangguan ei adalah nol atau dapat dinyatakan sbb: ei X i 0 (2.17) Karena mengasumsikan bahwa nilai harapan dari Y hanya dipengaruhi oleh variabel independen yang ada atau dapat dinyatakan sbb: Y 0 1 X i 16 | B A H A N A J A R E K O N O M E T R I K A 1 (2.18) Asumsi 4 Varian dari variabel gangguan ei adalah sama (homoskedastisitas) atau dapat dinyatakan sbb: Var ei X i ei ei X i (2.19) 2 ei2 X i karena asumsi 3 2 Asumsi 5 Tidak ada serial korelasi antara gangguan ei atau gangguan ei tidak saling berhubungan dengan ej yang lain atau dapat dinyatakan sbb: e X e Cov ei , e j X i , X j ei (ei ) X i e j E (e j ) X j i i j Xj (2.20) 0 Asumsi 6 Variabel gangguan ei berdistribusi normal e ~ N(0, 2) (2.21) Asumsi 1 sampai 5 dikenal dengan model regresi linier klasik (Classical Linear Regression Model). Dengan asumsi-asumsi di atas pada model regresi linier klasik, model kuadrat terkecil (OLS) memiliki sifat ideal dikenal dengan teorema Gauss-Markov (Gauss-Markov Theorem). Metode kuadrat terkecil akan menghasilkan estimator yang mempunyai sifat tidak bias, linier dan mempunyai varian yang minimum (best linear unbiased estimators = BLUE). Penjelasan detil tentang estimator yang BLUE bisa dilihat dalam Lampiran 1.2. Suatu estimator ̂1 dikatakan mempunyai sifat yang BLUE jika memenuhi kriteria sbb: 1. Estimator ̂1 adalah linier (linear), yaitu linier terhadap variabel stokastik Y sebagai variabel dependen 2. Estimator ̂1 tidak bias, yaitu nilai rata rata atau nilai harapan E ( ˆ1 ) sama dengan nilai 1 yang sebenarnya. 17 | B A H A N A J A R E K O N O M E T R I K A 1 3. Estimator ̂1 mempunyai varian yang minimum. Estimator yang tidak bias dengan varian minimum disebut estimator yang efisien (efficient estimator). Dengan demikian jika persamaan (2.16) memenuhi asumsi-asumsi tersebut di atas maka nilai koefisien 1 dalam persamaan tersebut dapat diartikan sebagai nilai harapan (expected value) atau rata-rata dari nilai Y pada nilai tertentu variabel independen X. Catatan penting dalam teorema Gauss-Markov adalah bahwa teorema ini hanya berlaku untuk regresi linear dan tidak berlaku untuk non linear. 2.7. Standard Error dari OLS Regresi sampel yang lakukan merupakan cara untuk mengestimasi regresi populasi. Karena itu, estimator ̂ 0 dan ̂1 yang diperoleh dari metode OLS adalah variabel yang sifatnya acak atau random yaitu nilainya berubah dari satu sampel ke sampel yang lain. Adanya variabilitas estimator ini maka membutuhkan ketepatan dari estimator ̂ 0 dan ̂1 . Di dalam statistika untuk mengetahui ketepatan estimator OLS ini diukur dengan menggunakan kesalahan standar (Standard error). Dengan kata lain standard error mengukur ketepatan estimasi dari estimator ̂ 0 dan ̂1 . Formula standard error bagi ̂ 0 dan ̂1 dapat ditulis sbb : X i2 2 Var (ˆ0 ) n xi2 Se(ˆ0 ) Var (ˆ0 ) (2.22) X i2 2 n xi2 2 Var ( ˆ1 ) xi2 Se( ˆ1 ) Var ( ˆ1 ) (2.23) (2.24) 2 xi2 (2.25) Dimana var adalah varian, se adalah standard error dan 2 adalah varian yang konstan (homoskedastik). Penurunan formula varian estimator i secara detil bisa dilihat dalam Lampiran 1.2. Semua variabel dalam perhitungan standard error di atas dapat diestimasi dari data yang ada kecuali 2 . Nilai estimasi dari 2 dapat dihitung dengan formula sbb: 18 | B A H A N A J A R E K O N O M E T R I K A 1 eˆi2 ̂ nk 2 (2.26) dimana: xi X i X n = jumlah observasi k = jumlah parameter estimasi yaitu ̂ 0 dan ̂1 . eˆi2 adalah jumlah residual kuadrat (residual sum of squares =RSS). n-k dikenal dengan jumlah derajat kebebasan (number of degree of freedom) disingkat sebagai df. df ini berarti jumlah observasi (n) dikurangi dengan jumlah paremeter estimasi. Semakin kecil standard error dari estimator maka semakin kecil variabilitas dari angka estimator dan berarti semakin dipercaya nilai estimator yang didapat. Bagaimana varian dan standard error dari estimator mampu membuat keputusan tentang kebenaran dari estimator akan dijelaskan dalam bab berikutnya. 2.8. Koefisien Determinasi (R2) Jika semua data terletak pada garis regresi atau dengan kata lain semua nilai residual adalah nol maka mempunyai garis regresi yang sempurna. Tetapi garis regresi yang sempurna ini jarang jumpai. Pada umumnya yang terjadi adalah êi bisa positif maupun negatif. Jika ini terjadi berarti merupakan garis regresi yang tidak seratus persen sempurna. Namun yang harapkan adalah bahwa mencoba mendapatkan garis regresi yang menyebabkan êi sekecil mungkin. Dalam mengukur seberapa baik garis regresi cocok dengan datanya atau mengukur persentase total variasi Y yang dijelaskan oleh garis regresi digunakan konsep koefisien determinasi (R2). Konsep koefisein determinasi dapat jelaskan melalui persamaan sebelumnya sbb: Yi Yˆi eˆi (2.27 ) Kedua sisi persamaan (2.27) kemudian dikurangi dengan nilai rata-rata Y (Y ) sehingga akan dapatkan persamaan sbb: Yi Y Yˆi eˆi Y (2.28) Persamaan (2.28) kemudian dapat ditulis kembali menjadi persamaan sbb: (Yi Y ) (Yˆi Y ) eˆi (Yi Y ) (Yˆi Y ) (Yi Yˆi ) 19 | B A H A N A J A R E K O N O M E T R I K A 1 (2.29) (Yi Y ) adalah variasi di dalam Y dari nilai rata-ratanya dan total dari penjumlahan kuadrat nilai ini disebut total sum of squares (TSS). (Yˆi Y ) adalah variasi prediksi Y ( Yˆi ) terhadap nilai rata ratanya atau variasi garis regresi dari nilai rata-ratanya dan total dari penjumlahan kuadrat nilai ini disebut explained sum of squares (ESS). (Yi Yˆi ) atau residual e adalah variasi dari Y yang tidak dijelaskan oleh garis regresi atau variasi Y yang dijelaskan oleh variabel residual dan nilai total dari penjumlahan kuadratnya disebut residual sum of squares (RSS). Dengan demikian maka persamaan (2.28) dapat ditulis kembali menjadi persamaan sbb: (Yi Y ) 2 (Yˆi Y ) 2 (Yi Yˆi ) 2 (2.30) atau dapat dinyatakan sebagai: TSS = ESS + RSS (2.31) Persamaan (2.31) ini menunjukkan bahwa total variasi dari Y dari nilai rata-ratanya dijelaskan oleh dua bagian, bagian pertama terkait dengan garis regresi dan satu bagian lainya oleh variabel residual yang random karena tidak semua data Y terletak pada garis regresi. Penjelasan ketiga konsep dapat dilihat pada gambar 2.5. Y êi = variasi karena residual variasi total (Y Y ) Ŷ (Yˆ Y ) = variasi karena regresi Y Yˆi ˆ0 ˆ1 X i Xi X Gambar 2.5. Variasi nilai Y yang dijelaskan oleh Y dan residual êi Jika garis regresi menjelaskan data dengan baik maka ESS akan lebih besar dari RSS. Pada kasus ekstrim bila semua garis regresi cocok dengan datanya maka ESS sama dengan TSS dan RSS sama dengan nol. Di 20 | B A H A N A J A R E K O N O M E T R I K A 1 lain pihak jika garis regresi kurang baik menjelaskan datanya RSS akan lebih besar dari ESS. Pada kasus ekstrim jika garis regresi tidak menjelaskan semua variasi nilai Y maka ESS sama dengan nol dan RSS sama dengan TSS. Oleh karena itu jika nilai ESS lebih besar dari RSS maka garis regresi menjelaskan dengan proporsi yang besar dari variasi Y sedangkan jika RSS lebih besar dari ESS maka garis regresi hanya menjelaskan bagian kecil dari variasi Y. Dari penjelasan ini dapat didefinisikan bahwa R2 sebagai rasio antara ESS dibagi dengan TSS. Formula R2 dengan demikian dapat ditulis sbb: R2 ESS TSS (2.32) (Yˆi Y ) 2 (Yi Y ) 2 Karena TSS = ESS + RSS, maka sebagai alternatifnya: R2 ESS TSS (2.33) TSS RSS TSS 1 RSS TSS eˆi2 1 (Yi Y ) 2 Dari formula persamaan (2.30) tersebut dengan demikian R2 dapat didefiniskan sebagai proporsi atau persentase dari total variasi variabel dependen Y yang dijelaskan oleh garis regresi (variabel independen X). Jika garis regresi tepat pada semua data Y maka ESS sama dengan TSS sehingga R2 = 1, sedangkan jika garis regresi tepat pada rata-rata nilai Y maka ESS=0 sehingga R2 sama dengan nol. Dengan demikian, nilai koefisien determinasi ini terletak antara 0 dan 1. 0 R2 1 (2.34) Semakin angkanya mendekati 1 maka semakin baik garis regresi karena mampu menjelaskan data aktualnya. Semakin mendekati angka nol maka mempunyai garis regresi yang kurang baik. Misalnya, jika R2 = 0,9889, artinya bahwa garis regresi menjelaskan sebesar 98,89% fakta sedangkan 21 | B A H A N A J A R E K O N O M E T R I K A 1 sisanya sebesar 1,11% dijelaskan oleh variabel residual yaitu variabel diluar model yang tidak dimasukkan dalam model. Koefisien determinasi hanyalah konsep statistik. mengatakan bahwa sebuah garis regresi adalah baik jika nilai R2 tinggi dan sebaliknya bila nilai R2 adalah rendah maka mempunyai garis regresi yang kurang baik. Namun demikian, harus memahami bahwa rendahnya nilai R 2 dapat terjadi karena beberapa alasan. Dalam kasus khusus variabel independen (X) mungkin bukan variabel yang menjelaskan dengan baik terhadap variabel dependen (Y) walaupun percaya bahwa X mampu menjelaskan Y. Akan tetapi, dalam regresi runtut waktu (time series) seringkali 2 mendapatkan nilai R yang tinggi. Hal ini terjadi hanya karena setiap variabel yang berkembang dalam runtut waktu mampu menjelaskan dengan baik variasi variabel lain yang juga berkembang dalam waktu yang sama. Dengan kata lain data runtut waktu diduga mengandung unsur trend yakni bergerak dalam arah yang sama. Di lain pihak, dalam data antar tempat atau antar ruang (cross section) akan menghasilkan nilai R2 yang rendah. Hal ini terjadi karena adanya variasi yang besar antara variabel yang diteliti pada periode waktu yang sama. 2.9. Koefisien Korelasi (r) Konsep yang sangat erat kaitannya dengan koefisien determinasi adalah koefisien korelasi (r). R2 adalah koefisien yang menjelaskan hubungan antara variabel dependen (Y) dengan variabel independen (Y) dalam suatu model. Sedangkan koefisien korelasi (r) mengukur derajat keeratan antara dua variabel. Koefisien korelasi (r) antara X dan Y dapat didefinisikan sbb: (R2) r cov( X i , Yi ) var( X i )Var (Yi ) (2.35) dimana: n cov( X i , Yi ) (X n 1 (X n 1 X )(Yi Y ) n 1 n var( X i ) i i (2.36) X )2 n 1 22 | B A H A N A J A R E K O N O M E T R I K A 1 (2.37) n var(Yi ) (Y i n 1 Y )2 n 1 (2.38) sehingga dapat menulis formula untuk koefisien korelasi sbb: n r (X n 1 n (X n 1 i X )(Yi Y ) n i (2.39) X ) 2 (Yi Y ) 2 n 1 Contoh perhitungan regresi linear sederhana Dari tabel 2.1 diketahui data konsumsi dan pendapatan penduduk suatu daerah sebagai berikut : Tahun Konsumsi Pendapatan 2006 14 15 2007 17 19 2008 19 20 2009 20 22 2010 22 25 2011 25 30 2012 30 32 2013 32 34 2014 33 35 2015 37 45 2016 40 50 Sumber : data hipotesis Dari data diatas maka dapat kita analisis sbb : a. Persamaan regresi linear b. Jelaskan arti persamaan tersebut berdasarkan teori ekonomi (teori konsumsi menurut pandangan Keynes) c. Ujilah persamaan tersebut dengan pendekatan statistic (uji t, F hitung dan koefisien determinasi (R2) 23 | B A H A N A J A R E K O N O M E T R I K A 1 Untuk bisa menjawab pertanyaan diatas maka saudara harus buat tabel isian sebagai berikut : SUMMARY OUTPUT Regression Statistics Multiple R ……………......... R Square …………….....… Adj R Square ……………....… Stand Error 1.706706 Observations ……………....… ANOVA Regression Residual Total df ………….......…. ………….......…. …………......…. SS ……………… ………………. ……………… MS …………. ….……… Intercept Pendapatan Coefficients ………….......… …………......… Stand Error t Stat …………..…. …...….….. ……………… …...…….. F ………… P-value 0.060917 7.59E-08 Jawab: Missal Y = konsumsi X = pendapatan Maka persamaan regresi Y = b0 + b1X Persamaan tersebut dapat dicari dengan bantuan table sebagai berikut : Tahun 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 2016 Σ Y 14 17 19 20 22 25 30 32 33 37 40 289 X 15 19 20 22 25 30 32 34 35 45 50 327 YX X2 210 225 323 361 380 400 440 484 550 625 750 900 960 1024 1088 1156 1155 1225 1665 2025 2000 2500 9521 10925 24 | B A H A N A J A R E K O N O M E T R I K A 1 Sign F 7.587E-08 Sehingga dari bantuan table dapat disusun persamaan : ΣY = n b0 + b1ΣX Σ YX = b0 ΣX + b1ΣX2 289 9521 = = 94503 104731 = = -10228 b1 = = 11 b0 + 327 b0 + 327 b1 kalikan 10925 b1 327 11 3597 b0 + 106929 b1 3597 b0 + 120175 b1 kurangkan 13246 b1 0.772 Setelah b1 diketahui maka dapat kita cari b0 melalui : 289 = 11 bo + 327 b1 masukan b1 = 0,772 diperoleh b0 = 3,318 Ujilah dengan persamaan lainnya 9521 = 327 b0 + 10925 b1 masukan b1 = 0,772 diperoleh b0 = 3,318 Dari hasil diatas dapat disusun persamaan regresi sebagai berikut : C = 3,318 + 0,772 Y Artinya : Konstatnta = b0 = 3,318 Koefisien b1=0,772 jika factor lain tidak berubah maka rata-rata konsumsi sebesar 3,318 satuan jika factor lain tetap maka kenaikan pendapatan sebesar 1000 satuan akan meningkatkan konsumsi sebesar 0,772 x 1000 atau sebesar 772 satuan. Hasil persamaan regresi dapat kita tuliskan ke dalam table berikut ini Intercept Pendapatan Coefficients Stand Error t Stat 3,318 ………………….. ……………... 0,772 …………………... ……………… P-value 0.060917 7.59E-08 Untuk menguji hipotesis apakah adan pengaruh secara individu antara pendapatan terhadap konsumsi maka kita harus mencari Standar Deviasi dari masing-masing koefisien. 25 | B A H A N A J A R E K O N O M E T R I K A 1 Untuk mencarai standar deviasi kita bias menggunakan formula sebagai berikut : sehingga sehingga Dimana Ingat : dan dan Sehingga dapat kita cari dengan bantuan table sebagai berikut : 26 | B A H A N A J A R E K O N O M E T R I K A 1 atau Tahun Y X YX u u^2 2006 14 15 210 225 -12.2727 -14.7273 150.6198 216.8926 14.90095 -0.90095 0.811713 2007 17 19 323 361 -9.27273 -10.7273 85.98347 115.0744 17.98958 -0.98958 0.979272 2008 19 20 380 400 -7.27273 -9.72727 52.89256 94.61983 18.76174 0.238261 0.056768 2009 20 22 440 484 -6.27273 -7.72727 39.34711 59.71074 20.30605 -0.30605 0.093669 2010 22 25 550 625 -4.27273 -4.72727 18.2562 22.34711 22.62253 -0.62253 0.387541 2011 25 30 750 900 -1.27273 0.272727 1.619835 0.07438 26.48332 -1.48332 2.200226 2012 30 32 960 1024 3.727273 2.272727 13.89256 5.165289 28.02763 1.972369 3.89024 2013 32 34 1088 1156 5.727273 4.272727 32.80165 18.2562 29.57195 2.428054 5.895445 2014 33 35 1155 1225 6.727273 5.272727 45.2562 2015 37 45 1665 2025 10.72727 15.27273 115.0744 233.2562 38.06568 -1.06568 1.135674 2016 40 50 2000 2500 13.72727 20.27273 188.438 410.9835 41.92647 -1.92647 3.71128 Σ 289 327 0 0 9521 X^2 y 10925 = 26,21561 27 | BAHAN AJAR EKONOMETRIKA 1 x y^2 744.1818 x^2 27.80165 1204.182 Y' 30.3441 2.655896 289 0 7.053784 26.21561 Sehingga = 26,21561/(11-2) = 2.912846 Sehingga = 2,912846/1204,182=0.002419 = (0,002419)0,5 = 0.049183 Dan = = 2.402449 = 1.549984 Sehingga dapat disusun : Hasil persamaan regresi dapat kita tuliskan ke dalam table berikut ini Coefficients Standard Error t Stat P-value Intercept 3,318 1.549984 2,141046 0.060917 Pendapatan 0,772 0.049183 15.69977 7.59E-08 2.141046 = 3.318 / 1.549984 15.69977 = 0.772/0.04918 Dari hasil analisis uji t diperoleh hasil sbb : Bahwa pendapatan mempengaruhi konsumsi secara signifikan hal ini di buktikan dengan dengan nilai t hitung lebih besar t table atau nilai α = 0,05 > p. value = 0,0000000759 Sedangkan uji secara keseluruhan bias dicari dengan ANOVA ANOVA dapat dicari dengan mengisi table di bawah ini : 28 | B A H A N A J A R E K O N O M E T R I K A 1 SUMMARY OUTPUT Regression Statistics 0.98228 Multiple R 0.96477 R Square Adjusted R Square ……………… Standard Error 1.706706 Observations ………………... ANOVA df SS MS F …………….….. …………………..……. ……………… ……………… 26.21561 ….………….. …………….….. …………….….. Regression Residual Total Tahun Y X y x 2006 14 15 -12.273 -14.727 2007 17 19 -9.273 2008 19 20 -7.273 2009 20 22 2010 22 2011 y^2 x^2 180.744 150.620 216.893 14.901 -11.372 -0.901 0.812 -10.727 99.471 85.983 115.074 17.990 -8.283 -0.990 0.979 -9.727 70.744 52.893 94.620 18.762 -7.511 0.238 0.057 -6.273 -7.727 48.471 39.347 59.711 20.306 -5.967 -0.306 0.094 25 -4.273 -4.727 20.198 18.256 22.347 22.623 -3.650 -0.623 0.388 25 30 -1.273 0.273 -0.347 1.620 0.074 26.483 0.211 -1.483 2.200 2012 30 32 3.727 2.273 8.471 13.893 5.165 28.028 1.755 1.972 3.890 2013 32 34 5.727 4.273 24.471 32.802 18.256 29.572 3.299 2.428 5.895 2014 33 35 6.727 5.273 35.471 45.256 27.802 30.344 4.071 2.656 7.054 2015 37 45 10.727 15.273 163.835 115.074 233.256 38.066 11.793 -1.066 1.136 13.727 20.273 0 278.289 929.8182 188.438 744.1818 410.983 41.926 15.654 -1.926 2016 40 50 Σ 289 327 0 yx = 1204.182 Y' Significance F 7.58751E-08 289 = Sehingga r2 = 0.96477 Setelah r diketahui maka anova dapat kita susus sebagai berikut : 29 | B A H A N A J A R E K O N O M E T R I K A 1 y' 0 u 0 u^2 3.711 26.21561 Regression Statistics Multiple R 0.98228 R Square 0.96477 Adj R Square 0.96085 Stand Error 1.706706 11 Observations 1-R2=0.035 ANOVA Regression Residual Total df (k-1) =1 (n-k) =3 (k-1)+(n-k) = 4 SS 717.9118382 ∑u2 = 26.21561 MS 717.91 8.73 F 82.15 Sign F 7.59E-08 ∑y2 = 744.1274482 R2 = 717.9118382 / 744.1274482 = 0.96477 Nilai R2 = 0,96477 merupakan nilai koefisien determinasi yang mengartikan bahwa variable bebas dapat menjelaskan variable terikat sebesar 96,4 persen, dan sisanya 0.03523 persen dijelaskan oleh variable lain. 2.10. Uji Hipotesis Hipotesis merupakan pernyataan tentang sifat populasi sedangkan uji hipotesis adalah suatu prosedur untuk pembuktian kebenaran sifat populasi berdasarkan data sampel. Seseorang yang melakukan penelitian akan lebih banyak menggunakan data sampel daripada data populasi. Dari sampel yang diambil kemudian dapat jadikan sebagai alat untuk verifikasi kebenaran populasi. Di dalam melakukan penelitian berdasarkan sampel, seorang peneliti dengan demikian harus menyatakan secara jelas hipotesis penelitian yang dilakukan untuk dibuktikan kebenarannya melalui penelitian dari data sampel. Dalam statistika, hipotesis yang ingin uji kebenarannya tersebut biasanya bandingkan dengan hipotesis yang salah yang nantinya akan tolak. Hipotesis yang salah dinyatakan sebagai hipotesis nol (null hypothesis) disimbolkan H0 dan 30 | B A H A N A J A R E K O N O M E T R I K A 1 hipotesis yang benar dinyatakan sebagai hipotesis alternatif (alternative hypothesis) dengan simbol Ha. Dalam menguji kebenaran hipotesis dari data sampel, statistika telah mengembangkan uji t. Uji t merupakan suatu prosedur yang mana hasil sampel dapat digunakan untuk verifikasi kebenaran atau kesalahan hipotesis nol (H 0). Keputusan untuk menerima atau menolak H0 dibuat berdasarkan nilai uji statistik yang diperoleh dari data. Hal yang penting dalam hipotesis penelitian yang menggunakan data sampel dengan menggunakan uji t adalah masalah pemilihan apakah menggunakan dua sisi atau satu sisi. Uji hipotesis dua sisi dipilih jika tidak punya dugaan kuat atau dasar teori yang kuat dalam penelitian, sebaliknya memilih satu sisi jika peneliti mempunyai landasan teori atau dugaan yang kuat. Misalnya menguji hubungan antara pendapatan terhadap konsumsi pada hitungan sebelumnya. Karena mempunyai landasan teori atau dugaan yang kuat bahwa terdapat hubungan yang positif antara jumlah pendapatan terhadap konsumsi maka menggunakan uji satu sisi. Adapan hipotesis nol dan hipotesis alternatif dapat dinyatakan sbb: H0 : 1 ≤ 0 (2.45) Ha : 1 > 0 Hipotesis nol atau hipotesis salah yakni menyatakan bahwa pendapatan tidak berpengaruh dan atau berpengaruh negatif terhadap konsumsi yang ditunjukkan oleh koefiesin 1 0. Sedangkan hipotesis alternatif menyatakan bahwa pendapatan berpengaruh positif terhadap konsumsi yang ditunjukkan oleh 1 > 0. Namun misalnya hubungan antara dua variabel dalam persamaan regresi bisa positif maupun negatif maka prosedur uji hipotesis harus dilakukan dengan uji dua sisi. Dalam kasus hubungan antara jumlah pendapatan terhadap konsumsi. Jumlah pendapatan dan konsumsi bisa berhubungan positif atau negatif tergantung dari jenis barangnya. Jika barang kualitas rendah (inferior) maka hubungan antara jumlah konsumsi barang dan pendapatan akan negatif yakni semakin tinggi pendapatan seseorang maka jumlah konsumsi barang inferior akan semakin kecil. Sedangkan jika barang adalah normal atau barang mewah maka hubungannya akan positif karena semakin tinggi pendapatan seseorang maka semakin besar jumlah konsumsi kedua jenis barang ini. Hipotesis dua sisi ini dapat dinyatakan sbb: H0 : 1 = 0 (2.46) Ha : 1 0 Dalam hipotesis alternatif disini dinyatakan bahwa pendapatan bisa mempunyai hubungan positif atau negatif tergantung jenis barangnya dilihat dari koefisien 31 | B A H A N A J A R E K O N O M E T R I K A 1 pendapatan yang nilainya tidak sama dengan nol yakni 1 0. Sedangkan hipotesis nolnya adalah pendapatan tidak berpengaruh terhadap jumlah konsumsin barang ditunjukkan oleh nilai koefisien 1 = 0. Misalkan dalam kasus hubungan antara jumlah pendapatan dan tingkat konsumsi, kita akan menguji dari data yang pilih dari tahun 2006 sampai dengan 2016. Pertanyaannya, apakah memang terhadap hubungan yang positif antara pendapatan dan tingkat konsumsi melalui uji t? Karena pendapatan mempunyai pengaruh yang positif terhadap konsumsi maka uji yang digunakan adalah uji satu sisi bukan uji dua sisi. Adapun prosedur uji t dengan uji satu sisi adalah sbb: 1. Membuat hipotesis melalui uji satu sisi Uji hipotesis negatif satu sisi H0 : 1 ≤ 0 (2.47) Ha : 1 > 0 2. Menghitung nilai satisitik t ( t hitung) dan mencari nilai t kritis dari tabel distribusi t pada dan degree of freedom tertentu. Adapun nilai t hitung dapat dicari dengan formula sbb: ˆ1 1 se( ˆ1 ) Dimana 1 merupakan nilai pada hipotesis nol t (2.48) 3. Membandingkan nilai t hitung dengan t kritisnya. Keputusan menolak atau menerima H0 sbb: jika nilai t hitung > nilai t kritis maka H0 ditolak atau menerima Ha jika nilai t hitung < nilai t kritis maka H0 diterima atau menolak Ha Jika menolak hipotesis nol H0 atau menerima hipotesisi alternatif Ha berarti secara statistik variabel independen signifikan mempengaruhi variabel dependen dan sebaliknya jika menerima H0 dan menolak H1 berarti secara statistik variabel independen tidak signifikan mempengaruhi variabel dependen. 32 | B A H A N A J A R E K O N O M E T R I K A 1 f(t) menolak H0 menerima Ha /2 menerima H0 menolak Ha menolak H0 menerima Ha /2 1- - tc 0 tc t Gambar 2.6. Daerah penolakan (penerimaan) H0: 1=0 dan Ha: 1 0 Keputusan menolak hipotesis nol (H0) atau menerima hipotesis alternatif Ha dapat juga dijelaskan melalui distribusi probabilitas t seperti terlihat dalam gambar 2.6. Nilai tc diperoleh dari nilai t kritis dari distribusi tabel t dengan dan degree of freedom tertentu. Pada gambar 2.6. menjelaskan keputusan menolak hipotesis nol atau tidak berdasarkan uji dua sisi, gambar 1.6. menjelaskan keputusan menolak hipotesis nol dengan hipotesis alternatif positif dan gambar 2.6. menjelaskan keputusan menolak hipotesis nol jika hipotesis alternatifnya adalah negatif. Uji Hipotesis Pengaruh Pendapatan Terhadap Konsumsi Ambil contoh kembali hubungan antara konsumsi regresinya tampilkan kembali disini sbb: C i 3,318 0,772 X i dengan pendapatan. Hasil (2.49) se (1,549) (0,049) R2 = 0,964 Dengan menggunakan = 5% tentukanlah apakah pendapatan berpengaruh positif terhadap jumlah konsumsi. Misalkan hipotesis nol H0 = 0. Langkah uji hipotesisnya sebagai berikut: 1. uji satu sisi 33 | B A H A N A J A R E K O N O M E T R I K A 1 H0 : 1 ≤ 0 (2.50) Ha : 1 > 0 2. Menghitung t hitung dan mencari nilai t kritis dari tabel dengan = 5% dan df sebesar 9 yakni 11-2. Besarnya t hitung sbb: t 0,772 15,69 0,049 (2.51) Dimana nilai 0 merupakan nilai 1 dalam hipotesis nol. Sedangkan nilai t kritis diperoleh dari t tabel yakni sebesar 1,8331 dengan = 5% dan df 9. 3. Keputusannya karena t hitung lebih besar dari nilai t kritis maka menolak H 0 atau menerima Ha, lihat juga melalui gambar 2.6. Artinya, pendapatan berpengaruh positif terhadap jumlah konsumsi. Dengan nilai 1 = -225 berarti jika pendapatan naik satu juta rupiah, maka jumlah konsumsi akan bertambah sebesar 772 ribu rupiah. 34 | B A H A N A J A R E K O N O M E T R I K A 1 Latihan Soal Diketahui data permintaan barang Q dan harga barang Q di suatu daerah sebagai berikut : Tahun Permintaan 2006 14 2007 17 2008 19 2009 20 2010 22 2011 25 2012 30 2013 32 2014 33 2015 34 2016 37 Sumber : data hipotesis Harga 20 19 19 17 16 15 15 16 18 17 17 Dari data diatas maka dapat kita analisis sbb : a. Persamaan regresi linear b. Jelaskan arti persamaan tersebut berdasarkan teori ekonomi (teori permintaan akan suatu baran) c. Ujilah persamaan tersebut dengan pendekatan statistic (uji t, F hitung dan koefisien determinasi (R2) 35 | B A H A N A J A R E K O N O M E T R I K A 1 BAB 3 REGRESI BERGANDA Dalam praktek sebetulnya banyak sekali faktor yang mempengaruhi suatu variabel terikat (dependent Variable), tidak hanya satu variabel. Contoh yang paling nyata adalah permintaan akan barang X. Permintaan akan barang X oleh konsumen tidak hanya dipengaruhi oleh faktor harga, tetapi juga bisa dipengaruhi oleh faktor harga barang lain, pendapatan konsumen dan sebagainya. Untuk membuat analisis pengaruh berbagai macam faktor independen terhadap variabel dependen bisa menggunakan analisis regresi berganda. 3.1. Analisis Regresi Berganda Ada beberapa asumsi OLS yang digunakan dalam regresi berganda. Selain enam asumsi pada regresi sederhana, perlu menambah satu asumsi lagi di dalamnya. Adapun asumsinya sbb: 1. Hubungan antara Y (variabel dependen) dan X (variabel independen) adalah linier dalam parameter. 36 | B A H A N A J A R E K O N O M E T R I K A 1 2. Nilai X nilainya tetap untuk obervasi yang berulang-ulang (non-stocastic). Karena variabel independennya lebih dari satu maka ditambah asumsi tidak ada hubungan linier antara variabel independen atau tidak ada multikolinieritas antara X1 dan X2 dalam persamaan. 3. Nila harapan (expected value) atau rata-rata dari variabel gangguan ei adalah nol. (3.1) e X i 0 4. Varian dari variabel gangguan ei adalah sama (homoskedastisitas). Var ei X i ei ei X i (3.2) 2 ei2 X i karena asumsi 3 2 5. Tidak ada serial korelasi antara variabel gangguan ei atau variabel gangguan ei tidak saling berhubungan dengan variabel gangguan ej yang lain. Cov ei , e j X i , X j ei (ei ) X i e j (e j ) X j ei X i e j X j (3.3) 0 6. Variabel gangguan ei berdistribusi normal e ~ N(0, 2) Jika regresi berganda memenuhi 6 asumsi diatas maka persamaan (3.3) dapat diartikan sbb: (Yi X 1i , X 2i ) 0 1 X 1i 2 X 2i ei (3.4) Arti persamaan (3.4) tersebut adalah nilai harapan (expected value) atau ratarata dari Y pada nilai tertentu variabel independen X1 dan X2. Dalam hal ini mengartikan 1 dan 2 agak sedikit berbeda dari regresi sederhana sebelumnya. 1 adalah mengukur perubahan rata-rata Y atau nilai 37 | B A H A N A J A R E K O N O M E T R I K A 1 harapan E (YX1, X2), terhadap perubahan per unit X1 dengan asumsi variabel X2 tetap. Begitu pula 2 adalah mengukur perubahan rata-rata Y atau nilai harapan E (YX1, X2), terhadap perubahan per unit X2 dengan asumsi variabel X1 tetap 3.2. Estimasi OLS Terhadap Koefisien Regresi Berganda Bagaimana caranya agar mendapatkan garis regresi yang sedekat mungkin dengan datanya bila mempunyai model regresi berganda. Apakah caranya sama dengan regresi sederhana sebelumnya dengan metode OLS. Jika keenam asumsi yang bangun pada subbab 3.1 terpenuhi maka metode OLS akan tetap mampu mendapatkan ˆ0 , ˆ1 dan ˆ 2 yang BLUE sehingga menyebabkan garis regresi sedekat mungkin pada data aktualnya. Prosedurnya sama sebagaimana regresi sederhana sebelumnya pada subbab 3.2. Misalkan mempunyai model regresi sampel sbb: Yˆi ˆ0 ˆ1 X 1i ˆ2 X 2i eˆi (3.5) Residual model tersebut dapat dinyatakan dalam persamaan sbb: eˆi Yi Yˆi eˆi Yi ˆ0 ˆ1 X i ˆ2 X 2i (3.6) Selanjutnya adalah mendapatkan nilai minimum jumlah residual kuadrat. Adapun caranya minimumkan eˆi2 (Yi ˆ0 ˆ 1X 1i ˆ2 X 2i ) 2 dengan melakukan turunan parsial terhadap ˆ0 , ˆ1 dan ˆ 2 . Sebagaimana metode OLS untuk regresi sederhana, tujuan metode OLS untuk regresi berganda adalah agar dapat meminimumkan jumlah residual kuadrat eˆi2 = (Yi Yˆi ) 2 dimana Yˆi ˆ0 ˆ1 X 1i ˆ2 X 2i . Nilai minimum jumlah residual kuadrat dapat diperoleh dengan melakukan diferensiasi parsial jumlah residual kuadrat tersebut terhadap ̂ 0 , ̂1 dan ˆ 2 dan kemudian menyamakan nilainya sama dengan nol sehingga menghasilkan persamaan (3.4), (3.5) dan (3.6). Adapun proses penurunannya sbb: Meminimumkan (Yi Yˆi ) 2 (Yi ˆ0 ˆ2 X 1i ˆ3i X 2i ) 2 (Yi ˆ0 ˆ1 X 1i ˆ2i X 2i ) 2 2 (Yi ˆ0 ˆ1 X 1i ˆ 2 X 2i ) ˆ 0 38 | B A H A N A J A R E K O N O M E T R I K A 1 (3.7) (Yi ˆ0 ˆ1 X 1i ˆ 2i X 2i ) 2 2 X 1i (Yi ˆ0 ˆ1 X 1i ˆ2 X 2i ) ˆ 1 (3.8) (Yi ˆ0 ˆ1 X 1i ˆ 2i X 2i ) 2 2 X 2i (Yi ˆ0 ˆ1 X 1i ˆ 2 X 2i ) ˆ (3.9) 2 Menyamakan persamaan (3.7), (3.8) dan (3.9) dengan nol dan membaginya dengan 2 maka akan menghasilkan (Yi ˆ0 ˆ1 X 1i ˆ2 X 2i ) 0 (3.10a) X 1i (Yi ˆ0 ˆ1 X 1i ˆ2 X 2i ) 0 (3.10b) X 2i (Yi ˆ0 ˆ1 X 1i ˆ2 X 2i ) 0 (3.10c) Dengan memanipulasi persamaan (3.10a), (3.10b) dan (3.10c) tersebut maka akan menghasilkan persamaan yang dikenal dengan persamaan normal (normal equation) yakni: Yi nˆ0 ˆ1 X 1i ˆ2 X 2i (3.10d) X 1iYi ˆ0 X 1i ˆ1 X 22i ˆ2 X 1i X 2i (3.10e) X 2iYi ˆ0 X 2i ˆ1 X 1i X 2i ˆ2 X 22i (3.10f) Dari persamaan (3.10d), (3.10e) dan (3.10f) tersebut kemudian dapatkan nilai untuk ̂ 0 , ̂1 dan ˆ 2 sbb: ˆ0 Y 1 X 1i 2 X 2i (3.11) ( x1i yi )( x22i ) ( x2i yi )( x1i x2i ) ( x12i )( x22i ) ( x1i x2i ) 2 (3.12) ( x 2i y i )( x12i ) ( x1i y i )( x1i x 2i ) ˆ 2 ( x12i )( x 22i ) ( x1i x 2i ) 2 (3.13) ˆ1 dimana: xi X i X yi Yi Y Y dan X adalah rata-rata 39 | B A H A N A J A R E K O N O M E T R I K A 1 bisa Untuk mendapatkan nilai β0, β1dan β2 menggunakan perkalian matriks dengan prediksi dua variabel independen, persamaan matriks yang digunakan adalah sebagai berikut: y 0 n x1 x2 2 x1 y 1 x1 x1 x1 x2 2 x y 2 x 2 2 x1 x 2 x2 = bA A H det A1 β = A-1.H dimana A- = 1 det A dimana det A, x1 n A= x2 x x x x x x x x 2 1 1 1 2 2 1 2 2 2 Det A = n. Σx12 Σx22 + Σx1. Σx1x2 .Σx2 + Σx2. Σx1x2 .Σx1 - Σx2. Σx12 .Σx2 - Σx1x2 . Σx1x2.n - Σx22. Σx1. Σx1 Det A1 = Σy Σx12Σx22 + Σx1. Σx1x2 .Σ2y + Σx2. Σx1x2 .Σx1y - Σx2y. Σx12 .Σx2 - Σx1x2 . Σx1x2. Σy - Σx22. Σx1. Σx1y Det A2 = n. Σx1y Σx22 + Σy. Σx1x2 .Σx2 + Σx2. Σx2y .Σx1 - Σx2. Σx1y .Σx2 – Σx2y . Σx1x2.n - Σx22. Σy. Σx1 Det A3 = n Σx12. Σx2y + Σx1.Σx1y .Σx2 + Σy. Σx1x2 .Σx1 - Σx2. Σx12 .Σy – Σx1x2. Σx1y.n - Σx2y. Σx1. Σx1 Dimana nilai a, b1, b2 bisa didapatkan dengan cara sebagai berikut: β0 = det A1 det A β1 = det A2 det A β2 = det A3 det A Dalam mengestimasi koefisien regresi berganda dengan hanya dua variabel independen di atas, masih mungkin bisa menghitung dengan manual. Namun 40 | B A H A N A J A R E K O N O M E T R I K A 1 demi efisiensi waktu apalagi kalau mempunyai variabel independen lebih dari dua maka harus menggunakan program komputer untuk olahan regresi seperti Eviews, Sazam, Rats dsb untuk menghitung koefisien regresi berganda. Setelah mendapatkan estimator OLS berupa koefisien regresi parsial, maka selanjutnya bisa mendapatkan varian dan standard error dari koefisien regresi untuk mengetahui reliabilitas estimator tersebut. Formula untuk menghitung varian dan standard error untuk ˆ0 , ˆ1 dan ˆ 2 sbb: 1 X 12 x22i X 22 x12i 2 X 1 X 2 x1i x2i 2 ˆ Var ( 0 ) x12i x22i ( x1i x2i ) 2 n (3.12) se(ˆ0 ) Var(ˆ0 ) (3.13) var(ˆ1 ) x 2 2 1i (3.14) (1 r122 ) Se(ˆ1 ) var(ˆ1 ) var(ˆ 2 ) x (3.15) 2 2 2i (3.16) (1 r122 ) Se(ˆ2 ) var(ˆ2 ) (3.17) dimana xi X i X dan r12 merupakan korelasi antara variabel independen X1 dan X2. Perhitungan korelasi X1 dan X2 sbb: n r (X n 1 n (X n 1 1i 1i X 1 )( X 2i X 2 ) X1 ) n 2 (X n 1 2i X2) (3.18) 2 3.3. Interval Estimasi Koefisien Regresi Berganda Sebagaimana pada regresi sederhana pada bab 2, koefisien regresi yang dapatkan pada regresi berganda adalah estimasi titik. bisa mencari interval estimasi koefisien regresi berganda didasarkan pada probabilitas sebagaimana probabilitas pada regresi sederhana pada bab 2. Adapun probabilitas untuk mencari interval estimasi dapat tulis kembali sbb: 41 | B A H A N A J A R E K O N O M E T R I K A 1 ˆ k P t c k tc 1 se(ˆk ) (3.22) dimana tc adalah nilai kritis tabel distribusi t dengan derajat kebebasan sebesar (n-k) sehingga P(t t c ) / 2 . Penyusunan kembali persamaan (3.22) akan menghasilkan interval estimasi untuk koefisien regresi sbb: P ˆk t c se(ˆi ) i ˆi t c se(ˆi ) 1 (3.23) Persamaan (4.23) tersebut bisa sederhanakan sbb: ˆ t se(ˆ ), ˆ t se(ˆ ) i c i i c (3.24) i Dimana (1-) merupakan interval keyakinan untuk koefisien regersi . Jika misalnya =5%, artinya 95% interval estimasi dari sampel mengandung kebenaran 95% dari populasi. 3.4. Uji t koefisien Regresi Parsial Pada regresi yang mempunyai lebih satu variabel independen, jika asumsi 1-5 terpenuhi maka mempunai estimator i yang BLUE. Bila asumsi 6 juga terpenuhi yaitu variabel ei mempunyai distribusi normal maka variabel dependen Y juga akan terdistribusi secara normal. Misalkan tulis kembali regresi berganda sebagaimana persamaan (3.5) sbb: Yi 0 1 X 1i 2 X 2i ... k X ki ei (3.28) maka ei N(0, 2) dan Yi N(0, 2). Karena estimator i adalah fungsi linier terhadap variabel dependen Y maka estimator i akan juga mempunyai distribusi normal dengan rata-rata i dan varian sebesar var(i) sbb: ˆ k N k , var( k ) (3.29) Jika mengurangi ˆ k dengan rata-ratanya kemudian dibagi dengan akar variannya atau standard errornya, maka melakukan transformasi variabel random ˆ k yang berdistribusi normal mejadi variabel Z yang mempunyai standar normal sbb: Z ˆk k var( k ) N(0,1) 42 | B A H A N A J A R E K O N O M E T R I K A 1 untuk k =1, 2, ..., k (3.30) Jika mengganti var( k ) dengan var(ˆk ) maka akan mendapatkan variabel random t sbb: t ˆk k var(ˆ k ) t(n-k) (3.31) atau dapat ditulis menjadi: t ˆ k k se( ˆ k ) t(n-k) (3.32) Perbedaan uji t regresi berganda dengan lebih dari satu variabel independen dengan regresi sederhana dengan hanya satu variabel independen terletak pada besarnya derajat degree of freedom (df) dimana untuk regresi sederhana dfnya sebesar n-2 sedangkan regresi berganda tergantung dari jumlah variabel independen ditambah dengan konstanta. Prosedur uji t pada koefisien regresi parsial pada regresi berganda sama dengan prosedur uji koefisien regresi sederhana. Untuk mengingat kembali uji t koefisien regresi ini bisa dibaca kembali pada bab 2. akan kembali membahas secara ringkas uji t tersebut. Misalnya mempunyai dua variabel independen dengan estimator 1 dan 2, langkah uji t sbb: 1. Membuat hipotesis melalui uji satu sisi atau dua sisi Uji hipotesis positif satu sisi H0 : 1 0 (3.33) Ha : 1 > 0 Uji hipotesis negatif satu sisi H0 : 1 0 (3.34) Ha : 1 < 0 Atau uji dua sisi H0 : 1 = 0 (3.35) Ha : 1 0 2. ulangi langkah pertama tersebut untuk 2 3. Menghitung nilai t hitung untuk 1 dan 2 dan mencari nilai nilai t kritis dari tabel distribusi t. Nilai t hitung dicari dengan formula sbb: ˆ 1 t 1 (3.36) se( ˆ1 ) 43 | B A H A N A J A R E K O N O M E T R I K A 1 Dimana 1* merupakan nilai pada hipotesis nol 4. Bandingkan nilai t hitung untuk masing-masing estimator dengan t kritisnya dari tabel. Keputusan menolak atau menerima H0 sbb: jika nilai t hitung > nilai t kritis maka H0 ditolak atau menerima Ha jika nilai t hitung < nilai t kritis maka H0 diterima atau menolak Ha 3.5. Uji Hipotesis Koefisien Regresi Secara Menyeluruh: Uji F perlu mengevaluasi pengaruh semua variabel independen terhadap variabel dependen dengan uji F. Uji F ini bisa dijelaskan dengan menggunakan analisis varian (analysis of variance = ANOVA). Misalkan mempunyai model regresi berganda sbb: Yi 0 1 X 1i 2 X 2i ei (3.40) ingat kembali pada bab 2 sebelumnya bahwa yi2 yˆ i2 eˆi2 yi2 ˆ1yi x1i ˆ2 yi x2i eˆi2 (3.41) Atau dapat ditulis menjadi: TSS = ESS + RSS (3.42) TSS mempunyai df= n-1, ESS mempunyai df sebesar k-1 sedangkan RSS mempunyai df=n-k. Analisis varian adalah analisis dekomposisi komponenen TSS. Analisis varian ini bisa ditampilkan dalam Tabel 3.1. Tabel 3.1. Analisys of Varian (ANOVA) Sumber variasi SS (sum of squares) ESS df MSS (mean sum of squares) ˆ1yi x1i ˆ2 yi x2i eˆi2 k-1 ( ˆ1yi x1i ˆ2 yi x2i eˆi2 )/k-1 RSS ei2 n-k (ei2 ) / n k ˆ 2 TSS y i2 n-1 44 | B A H A N A J A R E K O N O M E T R I K A 1 Dengan hipotesis bahwa semua variabel independen tidak berpengaruh terhadap variabel dependen yakni 1= 2 = . . . = k = 0 maka uji F dapat diformulasikan sbb: F ESS /(k 1) RSS /(n k ) (3.43) Dimana n= jumlah observasi dan k = jumlah parameter estimasi termasuk intersep atau konstanta. Formula uji statistik F ini bisa dinyatakan dalam bentuk formula yang lain dengan cara memanipulasi persamaan (3.43) tersebut yaitu: F ESS /(k 1) (TSS ESS ) /(n k ) F ( ESS / TSS ) /(k 1) (TSS ESS / TSS ) /(n k ) (3.44) Karena ESS/TSS = R2 maka persamaan (4.44) tersebut dapat ditulis kembali menjadi F R 2 /(k 1) 1 R 2 /(n k ) (3.45) Dari persamaan (2.45) tersebut jika hipotesis nol terbukti, maka harapkan nilai dari ESS dan R2 akan sama dengan nol sehingga F akan juga sama dengan nol. Dengan demikian, tingginya nilai F statistik akan menolak hipotesis nol. Sedangkan rendahnya nilai F statistik akan menerima hipotesis nol karena variabel independen hanya sedikit menjelaskan variasi variabel dependen di ser rata-ratanya. Walaupun uji F menunjukkan adanya penolakan hipotesis nol yang menunjukkan bahwa secara bersama-sama semua variabel independen mempengaruhi variabel dependen, namun hal ini bukan berarti secara individual variabel independen mempengaruhi variabel dependen melalui uji t. Keadaan ini terjadi karena kemungkinan adanya korelasi yang tinggi antar variabel independen. Kondisi ini menyebabkan standard error sangat tinggi dan rendahnya nilai t hitung meskipun model secara umum mampu menjelaskan data dengan baik. Misalnya mempunyai model regresi berganda dengan dua variabel independen sebelumnya: 45 | B A H A N A J A R E K O N O M E T R I K A 1 Yi 0 1 X 1i 2 X 2i ei (.46) Untuk menguji apakah koefisien regresi (1dan 2) secara bersama-sama atau secara menyeluruh berpengaruh terhadap variabel dependen, prosedur uji F dapat dijelaskan sbb: 1. Membuat hipotesis nol (H0) dan hipotesis alternatif (Ha) sbb: H0 : 1=2 = . . . = k = 0 (2.47) Ha : 12 . . . k 0 2. Mencari nilai F hitung dengan formula seperti pada persamaan (2.45) dan nilai F kritis dari tabel distribusi F. Nilai F kritsis berdasarkan besarnya dan df dimana besarnya ditentukan oleh numerator (k-1) dan df untuk denominator (n-k). 3. Keputusan menolak atau menerima H0 sbb: Jika F hitung > F kritis, maka menolak H0 dan sebaliknya jika F hitung < F kritis maka menerima H0 3.6. Koefisien Determinasi yang Disesuaikan Pada pembahasan bab 1 tentang regresi sederhana dengan hanya satu variabel independen menggunakan koefisien determinasi (R2) untuk menjelaskan seberapa besar proporsi variasi variabel dependen dijelaskan oleh variabel independen. Di dalam regresi berganda juga akan menggunakan koefisien determinasi untuk mengukur seberapa baik garis regresi yang punyai. Dalam hal ini mengukur seberapa besar proporsi variasi variabel dependen dijelaskan oleh semua variabel independen. Formula untuk menghitung koefisien determinasi (R2) regresi berganda sama dengan regresi sederhana. Untuk itu kembali tampilkan rumusnya sbb: R 2 ESS / TSS 1 RSS TSS ( eˆi2 ) 1 ( yi2 ) 1 ( eˆi2 ) (Yi Y ) 2 (3.48) Dari rumus tersebut diatas tampak jelas bahwa koefisien determinasi tidak pernah menurun terhadap jumlah variabel independen. Artinya koefisien determinasi akan semakin besar jika terus menambah variabel independen di dalam model. Hal ini terjadi karena (Yi Y ) 2 bukan merupakan fungsi dari 46 | B A H A N A J A R E K O N O M E T R I K A 1 variabel independen X, sedangkan RSS yakni eˆi2 tergantung dari jumlah variabel independen X di dalam model. Dengan demikian jika jumlah variabel independen X bertambah maka eˆi2 akan menurun. Mengingat bahwa nilai koefisien determinasi tidak pernah menurun maka harus berhati-hati membandingkan dua regresi yang mempunyai variabel dependen Y sama tetapi berbeda dalam jumlah variabel independen X. Kehati-hatian ini perlu karena tujuan regresi metode OLS adalah mendapatkan nilai koefisien determinasi yang tinggi. Salah satu persoalan besar penggunaan koefisien determinasi R 2 dengan demikian adalah nilai R2 selalu menaik ketika menambah variabel independen X dalam model walaupun penambahan variabel independen X belum tentu mempunyai justifikasi atau pembenaran dari teori ekonomi ataupun logika ekonomi. Para ahli ekonometrika telah mengembangkan alternatif lain agar nilai R2 tidak merupakan fungsi dari variabel independen. Sebagai Alternatif digunakan R2 yang disesuaikan (adjusted R2) dengan rumus sebagai berikut : R 2 1 ( eˆi2 ) /(n k ) (Yi Y ) 2 /(n 1) (3.49) dimana: k = jumlah parameter, termasuk intersep dan n = jumlah observasi Terminologi koefisien determinasi yang disesuaikan ini karena disesuaikan dengan derajat kebebasan (df) dimana eˆi2 mempunyai df sebesar n - k dan (Yi Y ) 2 dengan df sebesar n –1. Untuk mengetahui lebih jelas berikut adalah contoh penerapan regresi berganda. Seorang ekonom ingin mengetahui pengaruh pendapatan dan harga barang terhadap permintaan dalam setahun selama 10 tahun. Data yang dikumpulkan adalah sebagai berikut: 47 | B A H A N A J A R E K O N O M E T R I K A 1 Tabel 3.2 Diketahui data permintaan akan suatu barang, harga barang dan pendapatan masyarakat sebagai berikut : No Permintaan harga Pendapatan 1 2 3 4 5 6 7 8 9 10 10 11 11 13 16 17 18 20 23 25 8 9 7 6 7 6 5 6 7 5 20 25 27 30 33 36 40 44 45 50 Pertanyaan : (a) carilah persamaan regresi dan (b) ujilah secara statitik apakah harga dan pendapatan mempengaruhi permintaan secara signifikan, © serta berapa besarnya koefisien determinasinya dan apa artinya Jawab Y X1 X2 YX1 YX2 X1X2 X1^2 X 22 10 8 20 80 200 160 64 400 11 9 25 99 275 225 81 625 11 7 27 77 297 189 49 729 13 6 30 78 390 180 36 900 16 7 33 112 528 231 49 1,089 17 6 36 102 612 216 36 1,296 18 5 40 90 720 200 25 1,600 20 6 44 120 880 264 36 1,936 23 7 45 161 1,035 315 49 2,025 25 5 50 125 1,250 250 25 2,500 164 66 350 1,044 6,187 2,230 450 13,100 48 | B A H A N A J A R E K O N O M E T R I K A 1 buat persamaan ΣY = n b0 + b1ΣX1 + b2ΣX2 ΣYX1 = b0 ΣX1 + b1ΣX1^2 + b2ΣX1X2 ΣYX2 = b0 ΣX2 + b1ΣX1X2 + b2ΣX2^2 1) 164 = 10 b0 + 66 b1 + 350 b2 2) 1,044 = 66 b0 + 450 b1 + 2,230 b2 3) 6,187 = 350 b0 + 2,230 b1 + 13,100 b2 hilangkan b0 1) 164 = 10 b0 + 66 b1 + 350 b2 2) 1,044 = 66 b0 + 450 b1 + 2,230 b2 10824 = 660 b0 + 4356 b1 + 23100 b2 10440 = 660 b0 + 4500 b1 + 22300 b2 384 = 0 b0 + -144 b1 + 800 b2 4) kali 66 10 kurangkan hilangkan b0 2) 1,044 = 66 b0 + 450 b1 + 3) 6,187 = 350 b0 + 2,230 b1 + 13,100 b2 365400 = 23100 b0 + 157500 b1 + 780500 b2 408342 = 23100 b0 + 147180 b1 + 864600 b2 kurangkan -42942 = 0 b0 + 10320 b1 + 5) 2,230 b2 kali 350 66 -84100 b2 Dari persamaan 4) dan 5) hilangkan b1 384 = 0 b0 + -144 b1 + -42942 = 0 b0 + 10320 b1 + 49 | B A H A N A J A R E K O N O M E T R I K A 1 800 b2 kali -84100 b2 10320 -144 3962880 = 0 b0 + -1486080 b1 + 6183648 = 0 b0 + -1486080 b1 + 12110400 b2 kurangkan -2220768 = 0 b0 + b2 = 0.5762 b1 = 0.5342 b0 = -7.292 x1 x2 8256000 b2 0 b1 + x 1x 2 x1 2 -3854400 b2 X22 X2 y 10 8 20 -6.4 1.4 -15 -21 1.96 225 8.5055 1 2.23359 40.96 11 9 25 -5.4 2.4 -10 -24 5.76 100 11.921 -1 0.84741 29.16 11 7 27 -5.4 0.4 -8 -3.2 0.16 64 12.004 -1 1.00879 29.16 13 6 30 -3.4 -0.6 -5 3 0.36 25 13.199 0 0.03945 11.56 16 7 33 -0.4 0.4 -2 -0.8 0.16 4 15.461 1 0.29012 0.16 17 6 36 0.6 -0.6 1 -0.6 0.36 1 16.656 0 0.11860 0.36 18 5 40 1.6 -1.6 5 -8 2.56 25 18.426 0 0.18150 2.56 20 6 44 3.6 -0.6 9 -5.4 0.36 81 21.265 -1 1.60005 12.96 23 7 45 6.6 0.4 10 4 0.16 100 22.375 1 0.39020 43.56 25 5 50 8.6 -1.6 15 -24 2.56 225 24.188 1 0.65988 73.96 164 66 350 0 0 0 50 | B A H A N A J A R E K O N O M E T R I K A 1 14 850 164 u y2 X1 -80 Y' u2 Y 0 7.369589 244 HASIL PERHITUNGAN REGRESI SUMMARY OUTPUT Regression Statistics Multiple R 0.984808 R Square 0.969846 Adjusted R Square 0.961231 Standard Error = ESS/TSS 0.96123 1.02606 Observations 10 ANOVA df SS MS Regression 2 237 118.51 Residual 7 7.369 1.05 Total 9 244 Coefficients Intercept -7.291 X1 0.534 X2 0.576 Stand Error t Stat F 112.57 Sign F 4.76E-06 P-value 4.077136 0.3914 -1.788 0.1168 1.364 0.2145 0.0509 11.30 9.4E-06 Cara mencari standar error Var(b1) =(((∑ x2^2)/((∑x1^2)(∑x2^2)-(∑x1x2)^2)))*σ^2 Se(b1) = akar Var (b1) Var(b2) =(((∑ x1^2)/((∑x1^2)(∑x2^2)-(∑x1x2)^2)))*σ^2 Se(b2) = akar Var (b2) σ^2= ∑u^2/(n-k) 1.053 51 | B A H A N A J A R E K O N O M E T R I K A 1 Var(b1)= 0.153233 Se(b1)= 0.391 Var(b1)= 0.002596 Se(b1)= 0.051 Hasil Regresi Y = -7.292 + 0.53425 X1 + 0.576 Se(b) 4.077 0.39145 0.051 t hitung -1.788 1.36479 11.31 F hitung 112.6 2 R 0.97 52 | B A H A N A J A R E K O N O M E T R I K A 1 X2 LATIHAN SOAL Tahun Konsumsi Minyak (barrel/hari) 1991 692 1992 745 1993 786 1994 809 1995 865 1996 924 1997 1024 1998 978 1999 1022 2000 1139 2001 1159 2002 1210 2003 1230 2004 1308 2005 1303 2006 1244 2007 1318 2008 1287 2009 1297 2010 1402 2011 1589 2012 1631 2013 1643 2014 1676 2015 1628 Sumber : data hipotesis GDP/kpt (US dollar) Tingkat bunga Pinjaman (%) 1609 1696 1789 1894 2021 2143 2212 1894 1883 1948 1992 2054 2123 2200 2295 2389 2508 2624 2710 2841 2977 3115 3247 3367 3146 26 24 21 18 19 19 22 32 28 18 19 19 17 14 14 16 14 14 14 13 12 12 12 13 12 Dari data tersebut : 1. Buatlah model regresi berganda Y=b0+b1X1+b2X2+e (Model yang Saudara buat harus didasarkan pada teori ekonomi) nilai 30% 2. Carilah besarnya koefisien persamaan tersebut dan apa artinya ? nilai 10 % 3. Dari hasil regresi yang telah saudara hitung, ujilah apakah hasil regresi sesuai dengan teori ? Jelaskan arti koefisien masingmasing ! nilai 30% 4. Ujilah dengan uji statistic apakah variable bebas mempengaruhi Y ! (gunakan t test, F test dan Uji Koefisien Determinasi) nilai 30% Catatan : semua perhitungan didasarkan pada rumus atau formula yang tertera dalam buku ekonometri dan perhitungan menggunakan perhitungan manual. 53 | B A H A N A J A R E K O N O M E T R I K A 1 BAB 4 VAIABEL DUMMY DALAM REGRESI Nama lain Regresi Dummy adalah Regresi Kategori. Re-gresi ini menggunakan prediktor kualitatif (yang bukan dummy dinamai prediktor kuantitatif). Pembahasan pada regresi ini hanya untuk satu macam variabel dummy dan dikhususkan pada penaksiran parameter dan kemaknaan pengaruh prediktor. Pembahasan akan dilakukan dengan menggunakan berbagai contoh. Di dalam metodologi penelitian dikenal ada sebuah variabel yang disebut dengan dummy variable. Variabel ini bukan jenis lain dari variabel dependenindependen, namun menunjukkan sebuah variabel yang nilainya telah ditentukan oleh peneliti. Donald Cooper dan Pamela Schindler (2000) mendefinisikan dummy variable sebagai sebuah variabel nominal yang digunakan di dalam regresi berganda dan diberi kode 0 dan 1. Nilai 0 biasanya menunjukkan kelompok yang tidak mendapat sebuah perlakuan dan 1 menunjukkan kelompok yang mendapat perlakuan. Dalam regresi berganda, aplikasinya bisa berupa perbedaan jenis kelamin (1 = laki-laki, 0 = perempuan), ras (1 = kulit putih, 0 = kulit berwarna), pendidikan (1 = sarjana, 0 = nonsarjana). 54 | B A H A N A J A R E K O N O M E T R I K A 1 Masalah di sini adalah bukan pada konsep variabel ini dan aplikasinya di dalam riset, namun bagaimana dummy variable harus diterjemahkan atau dialihbahasakan ke dalam bahasa Indonesia. Sepengetahuan saya, beberapa orang membiarkannya tetap dummy dan menulisnya miring menjadi "variabel dummy" (perhatikan bahwa ia diindonesiakan dengan membiarkan dummy dalam bahasa aslinya). Sebagian orang lain menyerapnya ke dalam bahasa Indonesia menggunakan azas bunyi sehingga menjadi "variabel dami". Sebagian yang lain menyebutnya "variabel boneka" karena dummy di dalam bahasa Inggris bisa berarti boneka. Variabel dummy adalah variabel yang digunakan untuk mengkuantitatifkan variabel yang bersifat kualitatif (misal: jenis kelamin, ras, agama, perubahan kebijakan pemerintah, perbedaan situasi dan lain-lain). Variabel dummy merupakan variabel yang bersifat kategorikal yang diduga mempunyai pengaruh terhadap variabel yang bersifat kontinue. Variabel dummy sering juga disebut variabel boneka, binary, kategorik atau dikotom. Variabel dummy hanya mempunyai 2 (dua) nilai yaitu 1 dan nilai 0, serta diberi simbol D. Dummy memiliki nilai 1 (D=1) untuk salah satu kategori dan nol (D=0) untuk kategori yang lain. D = 1 untuk suatu kategori (laki- laki, kulit putih, sarjana dan sebagainya). D = 0 untuk kategori yang lain (perempuan, kulit berwarna, non-sarjana dan sebagainya). Nilai 0 biasanya menunjukkan kelompok yang tidak mendapat sebuah perlakuan dan 1 menunjukkan kelompok yang mendapat perlakuan. Dalam regresi berganda, aplikasinya bisa berupa perbedaan jenis kelamin (1 = laki-laki, 0 = perempuan), ras (1 = kulit putih, 0 = kulit berwarna), pendidikan (1 = sarjana, 0 = non-sarjana). 4.1. Model Matematika Regresi Berganda dengan Dengan Variabel Dummy Variabel dummy hanya mempunyai 2 (dua) nilai yaitu 1 dan nilai 0, serta diberi simbol D. D = 1 untuk suatu kategori (wanita, Batak, Islam, damai dan sebagainya). D = 0 untuk kategori yang lain (pria, Jawa, Kristen, perang dan sebagainya). Variabel dummy digunakan sebagai upaya untuk melihat bagaimana klasifikasi-klasifikasi dalam sampel berpengaruh terhadap parameter pendugaan. Variabel dummy juga mencoba membuat kuantifikasi dari variabel kualitatif. pertimbangkan model berikut ini: I. Y = a + bX + c D1 (Model Dummy Intersep) II. Y = a + bX + c (D1X) (Model Dummy Slope) III. Y = a + bX + c (D1X) + d D1 (Kombinasi) 55 | B A H A N A J A R E K O N O M E T R I K A 1 . 4.2. Pemanfaatan Regresi Berganda dengan Variabel Dummy Tujuan menggunakan regresi berganda dummy adalah memprediksi besarnya nilai variabel tergantung (dependent) atas dasar satu atau lebih variabel bebas (independent), di mana satu atau lebih variabel bebas yang digunakan bersifat dummy. Variabel dummy adalah variabel yang digunakan untuk membuat kategori data yang bersifat kualitatif (data kualitatif tidak memiliki satuan ukur), agar data kualitatif dapat digunakan dalam analisa regresi maka harus lebih dahulu di transformasikan ke dalam bentuk Kuantitatif. contoh data kualitatif misal jenis kelamin adalah laki-laki dan perempuan, harus di transform ke dalam bentuk Laki-laki = 1; Perempuan = 0. atau tingkat pendidikan misal SMA dan Sarjana, maka diubah menjadi SMA = 0; Sarjana = 1, skala yang terdiri dari dua yakni 0 dan 1 disebut kode Binary, sedangkan persamaan model yang terdiri dari Variabel Dependentnya Kuantitatif dan variabel Independentnya skala campuran : kualitatif dan kuantitatif, maka persamaan tersebut disebut persamaan regresi berganda Dummy. Dalam kegiatan penelitian, kadang variabel yang akan diukur bersifat Kualitatif, sehingga muncul kendala dalam pengukuran, dengan adanya variabel dummy tersebut, maka besaran atau nilai variabel yang bersifat Kualitatif tersebut dapat di ukur dan diubah menjadi kuantitatif. 56 | B A H A N A J A R E K O N O M E T R I K A 1 4.3. Contoh Kasus : Diketahui data PDB (pendapatan domestik bruto), R (tingkat suku bunga) dan d (dummy). obs 1982 1983 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 PDB 389786 455418 545832 581441 575950 674074 829290 956817 1097812 1253970 1408656 1757969 2004550 2345879 2706042 R 9 17.5 18.7 17.8 15.2 16.99 17.76 18.12 18.12 22.49 18.62 13.46 11.87 15.04 16.69 D 1 1 1 1 1 1 1 1 1 1 1 1 1 1 1 obs 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 PDB 3141036 4940692 5421910 6145065 6938205 8645085 9429500 10506215 12450736 15028519 17509564 21666747 24261805 27028696 30795098 Dimana : D (dummy variabel) jika D = 1 sebelum terjadinya krisis ekonomi dan jika D = 0 setelah krisis ekonomi. Lakulan regresi LS Log(PDB) c r dummy 57 | B A H A N A J A R E K O N O M E T R I K A 1 R 16.28 21.84 27.6 16.15 14.23 15.95 12.64 8.21 8.22 11.63 8.24 10.43 9.55 7.88 7.04 D 1 0 0 0 0 0 0 0 0 0 0 0 0 0 0 Diperoleh hasil sebagai berikut : Dependent Variable: LOG(PDB) Method: Least Squares Date: 04/13/15 Time: 22:01 Sample: 1982 2011 Included observations: 30 Variable Coefficient Std. Error t-Statistic C R DUMMY 17.10893 -0.062530 -2.209288 0.341276 50.13224 0.023664 -2.642416 0.230256 -9.594941 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) 0.835735 0.823567 0.583279 9.185804 -24.81508 68.68420 0.000000 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat Prob. 0.0000 0.0135 0.0000 15.00676 1.388631 1.854339 1.994459 1.899164 0.452882 Dari hasil regresi diatas dapat disimpulkan sebagai berikut : 1. Variabel tingkat bunga memiliki hubungan negatif terhadap pendapatan domestik bruto secara signifikan, artinya jika tingkat bunga dinaikan sebesar 1 persen maka PDB akan turun sebesar 0,06 persen. 2. Variabel dummy memiliki hubungan negatif dan signifikan artinya krisis ekonomi memiliki dampak terhadap PDB, sesudah krisis PDB mengalami penurunan. 58 | B A H A N A J A R E K O N O M E T R I K A 1 BAB 5 UJI ASUMSI KLASIK Model regresi linier klasik (OLS) berlkitaskan serangkaian asumsi. Tiga di antara beberapa asumsi regresi klasik yang akan diketengahkan dalam penelitian ini adalanh (lihat Maddala, 1992, hal. 229-269): 1. Non-autokorelasi. Non-autokorelasi adalah keadaan dimana tidak terdapat hubungan antara kesalahan-kesalahan (error) yang muncul pada data runtun waktu (time series). 2. Homoskedastisitas. Homoskedastisitas adalah keadaan dimana erros dalam persamaan regresi memiliki varians konstan. 3. Non-multikolinearitas. Non-multikolinearitas adalah keadaan dimana tidak ada hubungan antar variabel-variabel penjelas dalam persamaan regresi. Penyimpangan terhadap asumsi tersebut akan menghasilkan estimasi yang tidak sahih. Deteksi yang biasa dilakukan terhadap ada tidaknya penyimpangan asumsi klasik adalah uji autokorelasi, heteroskedastisitas, dan multikolinearitas. MODEL DETEKSI / UJI PENGOBATAN 59 | B A H A N A J A R E K O N O M E T R I K A 1 5.1. UJI MULTIKOLINEARITAS Sebagaimana dikemukakan di atas, bahwa salah satu asumsi regresi linier klasik adalah tidak adanya multikolinearitas sempurna (no perfect multicolinearity) tidak adanya hubungan linier antara variabel penjelas dalam suatu model regresi. Istilah ini multikoliniearitas itu sendiri pertama kali diperkenalkan oleh Ragner Frisch tahun 1934. Menurut Frisch, suatu model regresi dikatakan terkena multikoliniearitas bila terjadi hubungan linier yang sempurna (perfect) atau pasti (exact) di antara beberapa atau semua variabel bebas dari suatu model regresi. Akibatnya akan kesulitan untuk dapat melihat pengaruh variabel penjelas terhadap variabel yang dijelaskan (Maddala, 1992: 269-270). Berkaitan dengan masalah multikoliniearitas, Sumodiningrat (1994: 281-182) mengemukakan bahwa ada 3 hal yang perlu dibahas terlebih dahulu: 1. Multikoliniearitas pada hakekatnya adalah fenomena sampel. Dalam model fungsi regresi populasi (Population Regression Function = PRF) diasumsikan bahwa seluruh variabel bebas yang termasuk dalam model mempunyai pengaruh secara individual terhadap variabel tak bebas Y, tetapi mungkin terjadi bahwa dalam sampel tertentu. 2. Multikoliniearitas adalah persoalan derajat (degree) dan bukan persoalan jenis (kind). Artinya bahwa masalah Multikoliniearitas bukanlah masalah mengenai apakah korelasi di antara variabel-variabel bebas negatif atau positif, tetapi merupakan persoalan mengenai adanya korelasi di antara variabel-variabel bebas. 3. Masalah Multikoliniearitas hanya berkaitan dengan adanya hubungan linier di antara variabel-variabel bebas Artinya bahwa masalah Multikoliniearitas tidak akan terjadi dalam model regresi yang bentuk fungsinya berbentuk non-linier, tetapi masalah Multikoliniearitas akan muncul dalam model regresi yang bentuk fungsinya berbentuk linier di antara variabel-variabel bebas. Multikonearitas adalah adanya hubungan eksak linier antar variabel penjelas. Multikonearitas diduga terjadi bila nilai R 2 tinggi, nilai t semua variabel penjelas tidak signifikan, dan nilai F tinggi. Konsekuensi multikonearitas: 1. Kesalahan stkitar cenderung semakin besar dengan meningkatnya tingkat korelasi antar variabel. 2. Karena besarnya kesalahan stkitar, selang keyakinan untuk parameter populasi yang relevan cenderung lebih besar. 60 | B A H A N A J A R E K O N O M E T R I K A 1 3. Taksiran koefisian dan kesalahan stkitar regresi menjadi sangat sensitif terhadap sedikit perubahan dalam data. Konsekuensi multikearitas adalah invalidnya signifikansi variable maupun besaran koefisien variable dan konstanta. Multikolinearitas diduga terjadi apabila estimasi menghasilkan nilai R kuadrat yang tinggi (lebih dari 0.8), nilai F tinggi, dan nilai t-statistik semua atau hampir semua variabel penjelas tidak signifikan. (Gujarati, 2003) Sebagai indikasi awal, perhatikan nilai R kuadrat, F-statistik, dan tstatistik dari hasil regresi table III. Tabel III, dalam table ini merupakan kasus baru yaitu kasus negara Kertagama, dimana defenden variabelnya konsumsi dan indefenden variabelnya GNP, Subsidi dan PRM. Variabel PRM merupakan variable antah berantah yang sengaja dimasukkan dalam model dengan nilai hampir dua kali lipat dari nilai GNP untuk masingmasing periode ( disengaja agar semakin memperjelas munculnya masalah multikolinier). Tabel III, korelasi antar variable penjelas dan hasil analisis dapat dilihat dibawah ini. Bagaimana penilaian saudara? Untuk lebih pastinya, lakukan regresi antar variabel penjelas: Kasus Perhatikan nilai R kuadrat. Nilai R kuadrat jauh lebih rendah dibandingkan dengan nilai R kuadrat regresi variabel dalam level (regresi awal). Namun demikian, hal tersebut sama sekali tidak perlu dirisaukan. R kuadrat regresi persamaan dalam difference jelas jauh lebih kecil daripada R kuadrat regresi persamaan dalam level. R kuadrat kedua persamaan berbada bentuk tersebut (difference versus level) sama sekali tidak dapat dibandingkan (uncomparable). Untuk membuktikan terobatinya multikolinearitas, lakukan regresi antar variabel penjelas dalam perbedaan pertama. Jika nilai t-statistik salah satu variabel independen masih signifikan, berarti masih terdapat multikolinearitas pada persamaan tersebut. Hal sebaliknya terjadi jika nilai t-statistik tidak signifikan. Dilihat dari t statistiknya memang terdapat perbaikan dengan model regresi first difference, tetapi belum dapat menyelesaikan masalah multikoliniernya. Perintah untuk regresi antar variabel penjelas dalam perbedaan pertama: pengobatan multikolinearitas melalui perbedaan pertama, akan kehilangan informasi jangka panjang. Perbedaan pertama hanya mengandung informasi jangka pendek. Hal ini riskan apabila kita melakukan pengkajian empiris terhadap suatui teori karena teori berkaitan dengan informasi jangka panjang. Bagaimana solusinya? Klein mengajukan solusi yang kemudian disebut dengan Klein’s Rule of Thumb: Multikolinearitas tidak usah dirisaukan apabila nilai R kuadrat regresi 61 | B A H A N A J A R E K O N O M E T R I K A 1 model awal lebih besar daripada nilai R kuadrat regresi antar variabel penjelas Langkah berikutnya sebetulnya dengan menambah sample, tetapi dalam kasus ini tidak dapat dilakukan sehingga terpaksa satu variabel yaitu PRM atau GNP yang harus diamputasi dari model. Technik amputasinya dipilih variabel yang bukan variabel utama, sedangkan jika dua variabel tersebut memiliki kedudukan sejajar maka variabel yang nilai prob-valuenya yang besarlah yang diamputasi. Variabel yang diregres jangan dibuang, jika memang masih dibutuhkan, dan dijadikan regresi tunggal dengan defenden tetap variabel konsumsi. 5.2. UJI HETEROSKEDASTISITAS Homoskedastisitas terjadi bila distribusi probabilitas tetap sama dalam semua observasi x, dan varians setiap residual adalah sama untuk semua nilai variabel penjelas: Var (u) = E [ut – E(ut)]2 = E(ut)2 = s2u konstan Penyimpangan terhadap asumsi diatas disebut heteroskedastisitas. Pengujian heteroskedastisitas dilakukan denga uji Glesjer berikut ini: | | | e i | =β1Xi + vt dimana β = nilai absolut residual persamaan yang diestimasi Xi = variabel penjelas Vt = Unsur gangguan Apabila nilai t statistik signifikan, maka dapat disimpulkan bahwa hipotesis adanya heteroskedastisitas tidak dapat ditolak. a. Konsekuensi Adanya Heteroskedastisitas Dalam kenyataan, asumsi bahwa varian dari disturbance term adalah konstan mungkin sulit untuk bisa dipenuhi. Hal ini dapat dipahami jika diperhitungkan atau melihat faktor-faktor yang menjadi penyebab munculnya masalah heteroskedasitisitas dalam suatu model regresi. Namun demikian, apabila seorang peneliti atau econometrician melanggar asumsi homoskedastisitas atau dengan kata lain model empiris yang diestimasi oleh seorang peneliti tersebut adalah (Ramanathan, 1996: 417-418), Maddala, 1992: 209, 62 | B A H A N A J A R E K O N O M E T R I K A 1 Koutsoyiannis, 1977: 184-185: Gujarati, 1995: 365-267 dan Gujarati, 1999: 348-349) b. Cara Mendeteksi Masalah Heteroskedastisitas dalam Model Empiris Seperti halnya dalam masalah Multikoliniearitas salah satu masalah yang sangat penting adalah bagaimana bisa mendeteksi adatidaknya masalah heteroskedastistitas, tidak ada satu aturan yang kuat dan ketat untuk mendeteksi heteroskedastisitas. Walaupun demikian, para ahli ekonometrika menyarankan beberapa metode untuk dapat mendeteksi ada-tidaknya masalah heteroskedastisitas dalam model empiris, seperti dengan menggunakan uji Park tahun 1966, uji Glejscr 1969, Uji White (1980), uji Breusch-Pagan-Godfre (Gujarati, 1995, 369-380), Sumodiningrat, 1994: 270-278, Koutsoyiannis, 1977: 185-187, Ramanathan, 1996: 418-424, Thomas, 1997: 284-288, Breusch dan Pagan, 1979: 1287-1294 dan White 1980: 817-838). Konsekuensi heteroskedastisitas: 1. Penaksir OLS tetap tak bias dan konsisten tetapi tidak lagi efisien dalam sampel kecil dan besar. 2. Variansnya tidak lagi minimum. Heteroskedastisitas adalah situasi tidak konstannya varians. Konsekuensi heteroskedasitas adalah biasnya varians sehingga uji signifikansi menjadi invalid. Salah satu cara mendeteksi heteroskedastisitas adalah dengan melakukan uji Glesjer. Uji Glesjer dilakukan dengan cara meregresi nilai absolut residual dari model yang diestimasi terhadap variabel-variabel penjelas. Regresi model awal setelah variable PRM dihilangkan: 5.3. UJI AUTOKORELASI a. Penyebab Munculnya Otokorelasi Berkaitan dengan asumsi regresi linier klasik, khususnya asumsi no autocorrelation pertanyaan yang patut untuk diajukan adalah (mengapa otokorelasi itu terjadi atau muncul?) Padahal dalam dunia nyata, segala sesuatu tidak ada yang sifatnya tetap tetapi berubah terus seiring waktu. Untuk menjawab pertanyaan di atas, di bawah ini akan dikemukakan beberapa hal yang dapat mengakibatkan munculnya 63 | B A H A N A J A R E K O N O M E T R I K A 1 otokorelasi (Gujarati, 1995: 402-406. Koutsoyiannis, 1977: 203-204, Arief, 1993: 38-41): 1. Adanya Kelembaman (intertia) Salah ciri yang menonjol dari sebagian data runtun waktu ekonomi adalah kelembaman, seperti data pendapatan nasional, indeks harga konsumen, data produksi, data kesempatan kerja, data pengangguran-menunjukkan adanya pola konjuktur. Dalam situasi seperti ini, data observasi pada periode sebelumnya dan periode sekarang kemungkinan besar akan saling ketergantungan (interdependence). 2. Bias Specification: Kasus variabel yang tidak dimasukkan Hal itu terjadi karena disebabkan oleh tidak masukkan variabel yang menurut teori ekonomi, variabel tersebut sangat penting peranannya dalam menjelaskan variabel tak bebas. Bila hal ini terjadi, maka unsur pengganggu (error term)μi akan merefleksikan suatu pola yang sistematis di antara sesama unsur pengganggu, sehingga terjadi situasi otokorelasi di antara unsur pengganggu. 3. Adanya fenomena sarang laba-laba (cobweb phenomenon) Munculnya fenomena sarang laba-laba terutama terjadi pada penawaran komoditi sektor pertanian. Di sektor pertanian, reaksi penawaran terhadap perubahan harga terjadi setelah melalui suatu tenggang waktu (gestation period). Misalnya, panen komoditi permulaan tahun dipengaruhi oleh harga yang terjadi pada tahun sebelumnya. Akibatnya, bila pada akhir tahun t, harga komoditi pertanian ternyata lebih rendah daripada harga sebelumnya, maka pada tahun berikutnya (t + 1) akan ada kecenderungan di sektor pertanian untuk memproduksi komoditi ini lebih sedikit daripada yang diproduksi pada tahun t. Akibatnya, μi tidak lagi bersifat acak (random) tetapi mengikuti suatu pola yaitu sarang laba-laba. b. Konsekuensi dari Munculnya Otokorelasi Sebagaimana telah diuraikan, bila hasil suatu regresi dari suatu model empiris memenuhi semua asumsi regresi linier klasik maka berdasarkan teori yang dikemukakan oleh Gauss Markov, hasil regresi dari model empiris tersebut akan Best Linier Unbiased Estimator (BLUE) ini berarti bahwa dalam semua kelas, semua penaksir akan unbiased linier dan penaksir OLS adalah yang terbaik, yaitu penafsir tersebut mempunyai varian yang minimum. Singkatnya, penaksir OLS tadi efisien. Berangkat dari pemikiran di atas, bila semua asumsi regresi linier klasik dipenuhi kecuali asumsi no autocorrelation, maka penafsir64 | B A H A N A J A R E K O N O M E T R I K A 1 penafsir OLS akan mengalami hal-hal sebagai berikut (Arief, 1993: 41, Sumodiningrat, 1994: 241-244, Ramanathan, 1996: 452-, Gujarati, 1995: 410-415 dan Gujarati, 1999: 381-382). c. Cara Mendeteksi Ada-tidaknya Masalah Otokorelasi Harus diakui bahwa tidak ada prosedur estimasi yang dapat menjamin mampu mengeliminiasi masalah otokorelasi karena secara alamiah, perilaku otokorelasi biasanya tidak diketahui. Oleh karen itu, dalam beberapa kasus, orang atau penggunaan ekonometrika mungkin akan merubah bentuk fungsi persamaan regresinya misalnya, dalam bentuk log atau first difference. Hal ini menunjukkan bahwa pendeteksian terhadap ada-tidaknya otokorelasi merupakan suatu hal yang sangat diperlukan. Berkaitan dengan hal tersebut, di bawah ini akan ditawarkan beberapa cara atau metode untuk mendeteksi adatidaknya otokorelasi (Arief, 1993: 41-46, Sumodiningrat, 1994: 234240, Ramanthan, 1996: 452-458, Gujarati, 1995: 415-426 dan Kautsoyiannis, 1977: 211-227, Thomas 1997: 302-307 Maddala, 1992: 229-268). Autokorelasi terjadi bila nilai gangguan dalam periode tertentu berhubungan dengan nilai gangguan sebelumnya. Asumsi nonautokorelasi berimplikasi bahwa kovarians ui dan uj sama dengan no l: cov (uiuj) = E([ui – E(ui)][uj – E(uj)] = E(uiuj) = 0 untuk i+j Uji d Durbin Waston ( Durbin-Waston d Test ) Model ini diperkenalkan oleh J. Durbin dan G.S Watson tahun 1951. Deteksi autokorelasi dilakukan dengan membandingkan nilai statiatik Durbin Watson hitung dengan Durbin Watson tabel. Mekanisme uji Durbin Watson adalah sebagai berikut : 1. 2. 3. 4. Lakukan regresi OLS dan dapatkan residualnya. Hitung nilai d (Durbin Watson). Dapatkan nilai kritis dL dan du. Apabila hipotesis nol adalah bahwa tidak ada serial korelasi positif, maka jika d < dL, tolak Ho d < du, terima Ho dL= d = du, pengujian tidak menyakinkan 5. Apabila hipotesis nol adalah bahwa tidak ada serial korelasi baik negatif, maka jika d > 4-dL, tolak Ho 65 | B A H A N A J A R E K O N O M E T R I K A 1 d < 4-du, terima Ho 4-du = d = 4-dL, pengujian tidak menyakinkan 6. Apabila Ho adalah dua ujung, yaitu bahwa tidak ada serial korelasi baik positif maupun negatif, maka jika d < dL, tolak Ho d > 4-dL, tolak Ho du < d < 4-du, terima Ho dL = d = du, pengujian tidak menyakinkan 4-du = d = 4-dL, pengujian tidak menyakinkan Pendeteksian ada tidaknya autokorelasi pada persamaan yang mengandung variabel dependen kelambanan, misalnya pada model penyesuaian parsial, dapat dilakukan uji Durbin LM seperti berikut ini: ut = xt’d + T Yt-1 + Ut-1+ et dimana ut = residual dari model yang diestimasi xt = variabel-variabel penjelas Yt-1 = variabel dependen kelambanan Ut-1 = residual kelambanan Apabila nilai t hitung dari residual kelambanan signifikan, maka dapat disimpulkan bahwa hipotesis tidak adanya autokorelasi tidak dapat ditolak. Konsekuensi autokorelasi: 1. Penaksir tidak efisien, selang keyakinanya menjadi lebar secara tak perlu dan pengujian signifikansinya kurang kuat. 2. Variasi residual menaksir terlalu rendah. 3. Pengujian arti t dan F tidak lagi sahih dan memberi kesimpulan yang menyesatkan mengenai arti statistik dari koefisien regresi yang ditaksir. 4. Penaksir memberi gambaran populasi yang menyimpang dari nilai populasi yang sebenarnya. Autokorelasi adalah adanya hubungan antar residual pada satu pengamatan dengan pengamatan lain. Konsekuensi autokorelasi adalah biasnya varians dengan nilai yang lebih kecil dari nilai sebenarnya, sehingga nilai R kuadrat dan F-statistik yang dihasilkan cenderung sangat berlebih (overestimated). Cara mendeteksi adanya autokorelasi adalah d dengan membandingkan nilai Durbin Watson statistik hitung dengan Durbin Watson (DW) statistik tabel: 66 | B A H A N A J A R E K O N O M E T R I K A 1 Contoh Kasus TAHUN 1984 1985 1986 1987 1988 1989 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 INVESTASI 3750 3830 4126 11404 15681 19635 59878 41084 29315 40400 53289 69853 100715 50873 60749 61500 93894 98816 125308 1484845 164528 146900 227000 215100 320600 227000 269900 279000 289800 INFLASI 8.76 4.31 8.83 8.9 5.47 5.97 9.53 9.52 4.94 9.77 9.24 8.64 6.47 11.05 77.63 2.01 9.35 12.55 10.03 506 6.4 17.11 6.6 6.59 11.06 2.78 6.96 3.79 4.3 SUKU BUNGA 18.7 17.8 15.2 16.99 17.76 18.12 18.12 22.49 18.62 13.46 11.87 15.04 16.69 16.28 21.84 27.6 16.15 14.23 15.95 12.64 8.21 8.22 11.63 8.24 10.43 9.55 7.88 7.04 5.75 KURS 1076 1125 1641 1650 1729 1795 1901 1992 2062 2110 2206 2308 2383 4650 8025 7100 9595 10400 8940 8447 9290 9830 9020 9419 10950 9400 8991 9068 9670 Uji serial korelasi Klik Quick Estimate Equation investasi c inflasi bunga kurs 67 | B A H A N A J A R E K O N O M E T R I K A 1 Klik View Residual Diagnostics kemudian pilih Serial Correlation LM test 68 | B A H A N A J A R E K O N O M E T R I K A 1 Untuk medeteksi adanya serial korelasi dengan membandingkan nilai X2 hitung dengan X2 tabel (probabilitasnya), yakni : 69 | B A H A N A J A R E K O N O M E T R I K A 1 a. Jika probabilitas F statistic > 0,05, maka hipotesis yang menyatakan bahwa model bebas dari masalah serial korelasi diterima. b. Jika probabilitas F statistic < 0,05, maka hipotesis yang menyatakan bahwa model bebas dari masalah serial korelasi ditolak. Analisis Hasil Ouput : karena Jika probabilitas F statistic 0,75 > 0,05, maka hipotesis yang menyatakan bahwa model bebas dari masalah serial korelasi diterima. 5.4. Uji Normalitas Klic View Residual diagnostics histogram – Normality Test Klik OK 70 | B A H A N A J A R E K O N O M E T R I K A 1 Untuk mendeteksi apakah residualnya berdistribusi normal atau tidak dengan membandingkan jilai Jarque Bera (JB) dengan X2 tabel, yaitu : a. Jika probabilitas Jarque Bera (JB)> 0,05, maka residualnya berdistribusi normal b. Jika probabilitas Jarque Bera (JB)< 0,05, maka residualnya berdistribusi tidak normal Hasil Analisis Output : probabilitas Jarque Bera (JB)0,289 > 0,05, maka residualnya berdistribusi normal 5.5. Uji Linearitas Klik view Stability Diagnostics Ramsey RESET Test, klik ok dan abaikan jumlah fitted terms 71 | B A H A N A J A R E K O N O M E T R I K A 1 Klik OK Untuk medeteksi apakah model linear atau tidak dengan membandingkan nilai F statistic dengan F table (atau dengan membandingkan probabilitasnya), yaitu : 72 | B A H A N A J A R E K O N O M E T R I K A 1 a. Jika probabilitas F statistic > 0,05, maka hipotesis yang menyatakan bahwa model linear adalah diterima. b. Jika probabilitas F statistic < 0,05, maka hipotesis yang menyatakan bahwa model linear adalah ditolak. Analisis Hasil Output karena Jika probabilitas F statistic 0,00 < 0,05, maka hipotesis yang menyatakan bahwa model linear adalah ditolak. Model dirubah menjadi double log, diperoleh hasil Uji Linearitas Analisis Hasil Output karena Jika probabilitas F statistic 0,13 > 0,05, maka hipotesis yang menyatakan bahwa model linear adalah diterima. Uji Multikolinearitas Tahapan pengujian melalui program eviews dengan pendekatan korelasi partial dengan tahapan sebagai berikut : 1. Lakukan regresi seperti contoh diatas : Investasi = a0 + a1 Inflasi + a2 bunga + a3 kurs …………. (5.1) (investasi c inflasi bunga kurs) 2. Kemudian lakukan estimasi regresi untuk : Inflasi = b0 + b1 bunga + b2 kurs ……………………….……….. (5.2) (inflasi c bunga kurs). bunga = b0 + b1 inflasi + b2 kurs ……………………………..….. (5.3) (bunga c inflasi kurs) 73 | B A H A N A J A R E K O N O M E T R I K A 1 kurs = b0 + b1 infasi+ b2 bunga) …………………………......... (kurs c inflasi bunga) Hasil Estimasi sebagai berikut : 74 | B A H A N A J A R E K O N O M E T R I K A 1 (5.4) Untuk persamaan (1) nilai R2 adalah sebesar 0,951 R21 Untuk persamaan (2) nilai R2 adalah sebesar 0,0276 R22 Untuk persamaan (3) nilai R2 adalah sebesar 0,296 R23 Untuk persamaan (4) nilai R2 adalah sebesar 0,312 R24 75 | B A H A N A J A R E K O N O M E T R I K A 1 selanjutnya disebut selanjutnya disebut selanjutnya disebut selanjutnya disebut Hasil Analisis Output : menunjukan bahwa R21 > R22, R23, R24 maka dalam model tidak ditemukan adanya multikolinearitas Uji Heteroskedastisitas Uji White Lakukan estimasi persamaan regresi bergkita diatas, setelah itu klik view residula diagnostics heteroskedastisitas Test Pilih white, dan klik ok Diperoleh hasil sebagai berikut : 76 | B A H A N A J A R E K O N O M E T R I K A 1 Apabila nilai X2 hitung (nilai Obs* R squared) > nilai X2 tabel, misalnya dengan derajat kepercayaan α = 5%, baik untuk cross terms maupun no cross terms maka dapat disimpulkan model diatas tidak lolos uji heteroskedasitisitas. Hasil analisis output, berdasarkan table output diatas, tampak bahwa nilai nilai Obs* R squared 27,11 , probabilitas X2 0,0013 < 0,05 maka tidak lolos uji heteroskedastisitas. Karena model tidak lolos Heteroskedastisitas maka model dibuat log 77 | B A H A N A J A R E K O N O M E T R I K A 1 Kita uji dengan uji white kembali, diperoleh : 78 | B A H A N A J A R E K O N O M E T R I K A 1 Hasil analisis output, berdasarkan table output diatas, tampak bahwa nilai nilai Obs* R squared 10,04, probabilitas X2 > 0,05 maka Ho diterima atau model tidak mengandung heteroskedastisitas. Uji Autokorelasi Dari hasil regresi Investasi = f(inflasi, bunga, kurs) dapat kita lihat nilai dw yaitu sebesar 1,985. Nilai dw ini kemudian kita bandingkan dengan dw table. Karena nila dw diantara du < dw < 4-du, terima Ho, maka dapat disimpulkan bahwa H0 diterima artinya model tersebut tidak mengandung autokorelasi. 79 | B A H A N A J A R E K O N O M E T R I K A 1 BAB 6 PERBAIKAN PELANGGARAN ASUMSI KLASIK 6.1. Multikolinearitas Jika model kita mengandung multikolinieritas yang serius yakni korelasi yang tinggi antar variabel independen, Ada dua pilihan yaitu kita membiarkan model tetap mengandung multikolinieritas dan kita akan memperbaiki model supaya terbebas dari masalah multikolinieritas. Tanpa Ada Perbaikan Multikolinieritas sebagaimana kita jelaskan sebelumnya tetap menghasilkan estimator yang BLUE karena masalah estimator yang BLUE tidak memerlukan asumsi tidak adanya korelasi antar variabel independen. Multikolinieritas hanya menyebabkan kita kesulitan memperoleh estimator dengan standard error yang kecil. Masalah multikolinieritas biasanya juga timbul karena kita hanya mempunyai jumlah observasi yang sedikit. Dalam kasus terakhir ini berarti kita tidak 80 | B A H A N A J A R E K O N O M E T R I K A 1 punya pilihan selain tetap menggunakan model untuk analisis regresi walaupun mengandung masalah multikolinieritas. Dengan Perbaikan a. Menghilangkan Variabel Independen Ketika kita menghadapi persoalan serius tentang multikolinieritas, salah satu metode sederhana yang bisa dilakukakan adalah dengan menghilangkan salah satu variabel independen yang mempunyai hubungan linier kuat. Misalnya dalam kasus hubungan antara tabungan dengan pendapatan dan kekayaan, kita bisa menghilangkan variabel independen kekayaan. Akan tetapi menghilangkan variabel independen di dalam suatu model akan menimbulkan bias spesifikasi model regresi. Masalah bias spesifikasi ini timbul karena kita melakukan spesifikasi model yang salah di dalam analisis. Ekonomi teori menyatakan bahwa pendapatan dan kekayaan merupakan faktor yang mempengaruhi tabungan sehingga kekayaan harus tetap dimasukkan di dalam model. b. Transformasi Variabel Misalnya kita menganalisis perilaku tabungan masyarakat dengan pendapatan dan kekayaan sebagai variabel independen. Data yang kita punyai adalah data time series. Dengan data time series ini maka diduga akan terjadi multikolinieritas antara variabel independen pendapatan dan kekayaan karena data keduanya dalam berjalannya waktu memungkinkan terjadinya trend yakni bergerak dalam arah yang sama. Ketika pendapatan naik maka kekayaan juga mempunyai trend yang naik dan sebaliknya jika pendapatan menurun diduga kekayaan juga menurun. Dalam mengatasi masalah multikolinieritas tersebut, kita bisa melakukan transformasi variabel. Misalnya kita mempunyai model regresi time series sbb: Yt 0 1 X 1t 2 X 2t et (6.1) dimana : Y = tabungan; X1 = pendapatan; X2 = kekayaan Pada persamaan (6.1) tersebut merupakan perilaku tabungan pada periode t, sedangkan perilaku tabungan pada periode sebelumnya t-1 sbb: 81 | B A H A N A J A R E K O N O M E T R I K A 1 Yt 1 0 1 X 1t 1 2 X 2t 1 et 1 (6.2) Jika kita mengurangi persamaan (6.1) dengan persamaan (6.2) akan menghasilkan persamaan sbb: Yt Yt 1 ( 1 X 1t 1 X 1t 1 ) ( 2 X 2t 2 X 2t 1 ) (et et 1 ) (6.3) Yt Yt 1 1 ( X 1t X 1t 1 ) 2 ( X 2t X 2t 1 ) vt (6.4) dimana vt = et – et-1 Persamaan (6.4) tersebut merupakan bentuk transformasi variabel ke dalam bentuk diferensi pertama (first difference). Bentuk diferensi pertama ini akan mengurangi masalah multikolinieritas karena walalupun pada tingkat level X1 dan X2 terdapat multikolinieritas namun tidak berarti pada tingkat diferensi pertama masih terdapat korelasi yang tinggi antara keduanya. Transformasi variabel dalam persamaan (6.4) akan tetapi menimbulkan masalah berkaitan dengan masalah variabel gangguan. Metode OLS mengasumsikan bahwa variabel gangguan tidak saling berkorelasi. Namun transformasi variabel variabel gangguan vt = et – et-1 diduga mengandung masalah autokorelasi. Walaupun variabel gangguan et awalnya adalah independen, namun variabel gangguan vt yang kita peroleh dari transformasi variabel dalam banyak kasus akan saling berkorelasi sehingga melanggar asumsi variabel gangguan metode OLS. c. Penambahan Data Masalah multikolinieritas pada dasarnya merupakan persoalan sampel. Oleh karena itu, masalah multikolinieritas seringkali bisa diatasi jika kita menambah jumlah data. Kita kembali ke model perilaku tabungan sebelumnya pada contoh 6.5. dan kita tulis kembali modelnya sbb: Yi 0 1 X 1i 2 X 2i ei (6.5) dimana:Y= tabungan; X1= pendapatan; X2 = kekayaan. Varian untuk 1 sbb: 2 var(ˆ1 ) 2 2 x1i (1 r12 ) 82 | B A H A N A J A R E K O N O M E T R I K A 1 (6.6) Ketika kita menambah jumlah data karena ada masalah multikolinieritas antara X1 dan X2 maka x1i2 akan menaik sehingga menyebabkan varian dari ̂1 akan mengalami penurunan. Jika varian mengalami penurunan maka otomatis standard error juga akan mengalami penurunan sehingga kita akan mampu mengestimasi 1 lebih tepat. Dengan kata lain, jika multikolinieritas menyebabkan variabel independen tidak signifikan mempengaruhi variabel dependen melalui uji t maka dengan penambahan jumlah data maka sekarang variabel independen menjadi signifikan mempengaruhi variabel dependen. Contoh Kasus 6.1: Data perkembangan Ekspor, Konsumsi, impor, angkatan kerja dan populasi di Negara ABC sebagai berikut : Tabel 6.1. Perkembangan Ekspor, Konsumsi, impor, angkatan kerja dan populasi Tahun 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 Eks 468359 556306 632582 671218 737948 794926 855022 921714 1024791 698856 883948 889649 878823 930554 1056442 1231826 1347685 1462818 1602275 1447012 1667918 Cons 119802 140805 157484 192959 228119 279876 332094 387171 647824 813183 856798 1039655 1231965 1372078 1532888 1785596 2092656 2510504 2999957 3290996 3858822 83 | B A H A N A J A R E K O N O M E T R I K A 1 Imp 95842 112644 125987 154367 182495 223901 265676 309737 518259 650547 685439 831724 985572 1097662 1226311 1428477 1674125 2008403 2399966 2632797 3087057 AK 72574728 73845896 75104839 76349299 77575965 78783138 79970646 81141540 82301397 83457632 84616171 85779320 86947635 88123124 89307442 90501881 91705592 111244331 113031121 115053936 116495844 Pop 181436821 184614740 187762097 190873248 193939912 196957845 199926615 202853850 205753493 208644079 211540428 214448301 217369087 220307809 223268606 226254703 229263980 232296830 235360765 238465165 241613126 Tahun 2011 2012 2013 2014 Eks 1914268 1945064 2026120 2046740 Cons 4340605 4858331 5456626 6035674 Imp 3472484 3886665 2359212 2580527 AK 118515710 120426769 122125092 124061112 Pop 244808254 248037853 251268276 254454778 Lakukan regresi LS EKS C CONS IMP AK POP Kita peroleh hasil persamaan regresi sebagai berikut : Dependent Variable: EKS Method: Least Squares Date: 01/09/17 Time: 04:26 Sample: 1990 2014 Included observations: 25 Variable Coefficient Std. Error t-Statistic Prob. C CONS IMP AK POP -892281.2 0.119704 0.022910 0.007369 0.005041 712567.2 -1.252206 0.049762 2.405542 0.064591 0.354693 0.006623 1.112725 0.003399 1.483299 0.2249 0.0259 0.7265 0.2790 0.1536 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) 0.959611 0.951533 107567.9 2.31E+11 -322.3311 118.7968 0.000000 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat 1147715. 488609.5 26.18649 26.43026 26.25410 1.357171 Dari hasil output regresi diatas dapat kita susun persamaan sebagai berikut : EKS = -892281 + 0.12*CONS + 0.023*IMP + 0.007*AK + 0.005*POP (0.0498) (0.0645) (0.0066) (0.0033) T hitung 2.4055*** 0.3546 1.1127 1.4832 2 R = 0.959 F hitung = 118.796 84 | B A H A N A J A R E K O N O M E T R I K A 1 Konsekuensi multikearitas adalah invalidnya signifikansi variable maupun besaran koefisien variable dan konstanta. Multikolinearitas diduga terjadi apabila estimasi menghasilkan nilai R kuadrat yang tinggi (lebih dari 0.8), nilai F tinggi, dan nilai t-statistik semua atau hampir semua variabel penjelas tidak signifikan. (Gujarati, 2003) Untuk medeteksi awal apakah dalam suatu model mengandung multikolinearitas, maka tindakan awal dengan melihat estimasi nilai R2 yang tinggi (lebih dari 0.8), nilai F tinggi, dan nilai t-statistik semua atau hampir semua variabel penjelas tidak signifikan. Dari hasil diatas dapat kita lihat R2 tinggi, F tinggi namun sebagian besar tidak signifikan. Artinya ada kemungkinan model diatas mengandung multikolinearitas yang serius.. Uji selanjutnya, bandingkan R kuadrat regresi diatas dengan R kuadrat regresi antar variable bebasnya. Regres LS AK IMP CONS POP C Dependent Variable: AK Method: Least Squares Date: 01/09/17 Time: 04:49 Sample: 1990 2014 Included observations: 25 Variable Coefficient Std. Error t-Statistic Prob. IMP CONS POP C 5.078742 4.832311 0.137917 47839133 1.816942 1.255603 0.107873 21030811 2.795215 3.848599 1.278517 2.274716 0.0108 0.0009 0.2150 0.0335 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) 0.964931 Mean dependent var 0.959922 3544388. 2.64E+14 -410.3159 192.6086 0.000000 S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat 93561606 17704591 33.14528 33.34030 33.19937 1.277394 Jika kita bandingkan R12 regresi LS EKS C CONS IMP AK POP dengan R22 regresi LS AK IMP CONS POP C, maka R12 = 0.959611lebih kecil dari R22 = 0.964931, sehingga dapat disimpulkan model diatas mengandung multikolearitas. 85 | B A H A N A J A R E K O N O M E T R I K A 1 Cara menghilangkan multikonearitas : Dengan menghilangkan variable yang tidak signifikan Misal variable konsumsi kita hilangkan Regres LS EKS C IMP AK POP Dependent Variable: EKS Method: Least Squares Date: 01/09/17 Time: 05:02 Sample: 1990 2014 Included observations: 25 Variable Coefficient Std. Error t-Statistic Prob. C IMP AK POP -2058947. 0.010873 0.017615 0.007095 578495.0 0.071359 0.005620 0.003646 -3.559144 0.152363 3.134436 1.946095 0.0019 0.8804 0.0050 0.0651 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) 0.947925 0.940486 119198.4 2.98E+11 -325.5077 127.4227 0.000000 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat 1147715. 488609.5 26.36061 26.55563 26.41470 1.280160 Hasil regresi diatas : R kuadrat yang tinggi (lebih dari 0.8), nilai F tinggi, dan nilai t-statistik hampir semua variabel penjelas signifikan. 6.2. Heteroskedastisitas Diketahui bahwa heteroskedastisitas tidak merusak sifat kebiasan dan konsistensi dari penaksir OLS, tetapi penaksir tadi tidak lagi efisien yang membuat prosedur pengujian hipotesis yang biasa nilainya diragukan. Oleh karena itu diperlukan suatu tindakan perbaikan pada model regresi untuk menghilangkan masalah heteroskedastisitas pada model regresi tersebut. Tindakan perbaikan ini tergantung dari pengetahuan kita tentang varian dari variabel gangguan. Ada dua pendekatan untuk melakukan tindakan perbaikan, yaitu jika σ2i diketahui dan jika σ2i tidak diketahui. 86 | B A H A N A J A R E K O N O M E T R I K A 1 a. Varian Variabel gangguan Diketahui (i2 ) Jika kita mengetahui besarnya varian maka penyembuhan masalah heteroskedastisitas bisa dilakukan melalui metode WLS yang merupakan bentuk khusus dari metode Generalized Least Squares (GLS). Dari metode WLS ini akhirnya kita bisa mendapatkan estimator yang BLUE kembali. Untuk mengetahui bagaimana metode WLS ini bekerja, misalkan kita mempunyai model regresi sederhana sbb: Yi 0 1 X i ei (6.7) Jika varian variabel gangguan i2 diketahui maka persamaan (6.7) dibagi i akan mendapatkan persamaan sbb: Yi i 0 i ei i i i (6.8) Atau dapat ditulis sbb: 1 (6.9) Yi 0 1 X i ei i Persamaan (6.9) merupakan transformasi dari persamaan (6.7). Dari metode transformasi ini kita akan mendapatkan varian variabel gangguan yang konstan. Var (ei ) (ei ) 2 (6.10) 2 e i i 1 2 (ei2 ) i karena varian variabel gangguan i2 diketahui dan (ei2 ) i2 maka 1 2 ( i2 ) 1 i Varian dari transformasi variabel gangguan ei ini sekarang konstan. Ketika kita mengaplikasikan metode OLS dalam persamaan transformasi (6.9) maka kita akan mempunyai estimator yang BLUE. Namun perlu diingat bahwa estimator pada persamaan awal yakni persamaan (6.7) tetap tidak BLUE. b. Ketika Varian Variabel gangguan Tidak Diketahui (I2 ) Dalam kenyataannya sulit kita mengetahui besarnya varian variabel gangguan. Oleh karena itu dikembangkanlah metode penyembuhan yang memberi informasi cukup untuk mendeteksi 87 | B A H A N A J A R E K O N O M E T R I K A 1 varian yang sebenarnya. Ada beberapa metode yang dapat digunakan untuk menyembuhkan masalah heteroskedastisitas. Metode White Jika kita tidak mengetahui besaranya varian variabel gangguan maka kita tidak mungkin bisa menggunakan metode WLS. OLS estimator sebenarnya menyediakan estimasi parameter yang konsisten jika terjadi heteroskedastisitas tetapi standard errors OLS yang biasa tidak tepat untuk membuat sebuah kesimpulan. White kemudian menggembangkan perhitungan standard errors heteroskedastisitas yang dikoreksi (heteroscedasticity-corrected standard errors). Untuk menjelaskan metode White ini kita ambil contoh regresi sederhana sbb: Yi 0 1 X i ei (6.11) Dimana var(ei ) i2 Jika model mempunyai varian variabel gangguan yang tidak sama maka varian estimator tidak lagi efisien. Varian estimator ̂1 menjadi: xi2 i2 ˆ var(1 ) ( xi2 ) 2 (6.12) Karena i2 tidak bisa dicari secara langsung maka White mengambil residual kuadrat eˆi2 dari persamaan (6.12) sebagai proksi dari i2 . Kemudian varian estimator ̂1 dapat ditulis sbb: xi2 ei2 ˆ var(1 ) ( xi2 ) 2 (6.13) Sebagaimana ditunjukkan oleh White, varian ( ˆ1 ) dalam persamaan (6.13) adalah estimator yang konsisten dari varian dalam persamaan (6.12). Ketika sampel bertambah besar maka varian persamaan (6.13) akan menjadi varian persamaan (6.12). Prosedur metode White dilakukan dengan mengestimasi persamaan (6.11) dengan metode OLS, dapatkan residualnya dan menghitung varian berdasarkan persamaan (6.10). Bagi model regresi lebih dari satu variabel independen maka kita harus mencari varian setiap variabel independen. Untuk mengatasi masalah ini, beberapa program komputer seperti Eviews menyediakan metode White ini. 88 | B A H A N A J A R E K O N O M E T R I K A 1 Metode White tentang heteroscedasticity-corrected standard errors didasarkan pada asumsi bahwa variabel gangguan et tidak saling berhubungan atau tidak ada serial korelasinya. Untuk itu maka Newey, Whitney dan Kennneth West menggembangkan metode dengan memasukkan masalah unsur autokoralsi (6.13) Mengetahui Pola Heteroskedastisitas Kelemahan dari metode White adalah estimator yang didapatkan mungkin tidak efisien. Metode lain yang bisa dilakukan adalah dengan mengetahui pola heteroskedastisitas di dalam model. Pola ini bisa diketahui melalui hubungan antara varian variabel gangguan dengan variabel independen. Misalnya kita mempunyai model sbb: Yi 0 1 X i ei (6.14) Kita asumsikan bahwa pola varian variabel gangguan dari persamaan (6.14) adalah proporsional dengan Xi sehingga: var (ei X i ) E (ei2 ) (6.15) 2Xi untuk menghilangkan masalah heteroskedastisitas jika variabel gangguan proporsional dengan variabel independen Xi, kita dapat melakukan transformasi persamaan (6.15) dengan membagi dengan X i sehingga akan menghasilkan persamaan sbb: X e Y 0 1 i i Xi Xi Xi Xi 1 0 1 X i vi Xi dimana vi (6.16) ei Xi Sekarang kita bisa membuktikan bahwa varian variabel gangguan dalam persamaan (6.16) tidak lagi heteroskedastisitas tetapi homoskedastisitas: e E (vi2 ) E i X i 2 karena persamaan (6.16) 89 | B A H A N A J A R E K O N O M E T R I K A 1 1 (ei2 ) Xi 1 2 Xi Xi 2 Karena persamaan (6.15) (6.17) Persamaan (6.17) tersebut berbeda dengan model persamaan regresi awal. Sekarang kita tidak lagi mempunyai intersep sehingga kita bisa melakukan regresi tanpa intersep untuk mengestimasi 0 dan 1. Kita kemudian bisa mendapatkan regresi awal dengan cara mengalikan persamaan (6.16) dengan X i . Selain proporsional dengan variabel independen X, kita bisa mengasumsikan bahwa pola varian variabel gangguan adalah proporsional dengan X i2 sehingga: E (ei2 ) 2 X i2 (6.18) Kemudian kita bisa melakukan transformasi persamaan (6.14) dengan membagi Xi sehingga akan menghasilkan persamaan sbb: Yi e 0 1 i Xi Xi Xi Xi 0 1 1 vi Xi (6.19) Kita dapat membuktikan bahwa varian variabel gangguan persamaan (7.62) sekarang bersifat homoskedastisitas yaitu: 2 e E (v ) E i Xi 1 2 (ei2 ) Xi 1 2 2 X i2 Xi 2 karena persamaan (6.18) 2 i (6.20) Dalam transformasi persamaan di atas konstanta dan slope persamaan awal menjadi variabel independen dan variabel intersep baru. 90 | B A H A N A J A R E K O N O M E T R I K A 1 Contoh Kasus 6.2: Data perkembangan Ekspor, Konsumsi, impor, angkatan kerja dan populasi di Negara DEF sebagai berikut : Tabel 6.2. Perkembangan Ekspor, Konsumsi, impor, angkatan kerja dan populasi Tahun 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 Eks 468359 556306 632582 671218 737948 794926 855022 921714 1024791 698856 883948 889649 878823 930554 1056442 1231826 1347685 1462818 1602275 1447012 1667918 1914268 1945064 2026120 2046740 Cons 119802 140805 157484 192959 228119 279876 332094 387171 647824 813183 856798 1039655 1231965 1372078 1532888 1785596 2092656 2510504 2999957 3290996 3858822 4340605 4858331 5456626 6035674 Imp 95842 112644 125987 154367 182495 223901 265676 309737 518259 650547 685439 831724 985572 1097662 1226311 1428477 1674125 2259453 2699961 2961896 3472940 3906545 3886665 2359212 2580527 AK 54431046 55384422 56328629 57261974 58181974 59087354 59977985 60856155 61726048 62593224 84616171 85779320 86947635 88123124 89307442 90501881 91705592 111244331 113031121 115053936 116495844 118515710 120426769 122125092 124061112 Lakukan regresi LS IMP C CONS EKS AK POP Hasilnya sebagai berikut : 91 | B A H A N A J A R E K O N O M E T R I K A 1 Pop 181436821 184614740 187762097 190873248 193939912 196957845 199926615 202853850 205753493 208644079 211540428 214448301 217369087 220307809 223268606 226254703 229263980 232296830 235360765 238465165 241613126 244808254 248037853 251268276 254454778 Dependent Variable: IMP Method: Least Squares Date: 01/09/17 Time: 05:38 Sample: 1990 2014 Included observations: 25 Variable Coefficient Std. Error t-Statistic Prob. C CONS EKS AK POP 461161.8 -0.097674 1.514296 0.042048 -0.019457 3143958. 0.146682 0.214708 -0.454916 0.871794 1.736989 0.015469 2.718159 0.020484 -0.949864 0.8849 0.6541 0.0978 0.0132 0.3535 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) 0.899135 0.878962 439823.8 3.87E+12 -357.5374 44.57112 0.000000 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat 1387839. 1264205. 29.00299 29.24677 29.07061 1.259764 Uji heteroskedastisitas dengan uji White Pilih : view Residual Diagnostics Heteroskedasticity Test White OK Heteroskedasticity Test: White F-statistic Obs*R-squared Scaled explained SS 16.78182 Prob. F(14,10) 23.97936 Prob. Chi-Square(14) 15.97986 Prob. Chi-Square(14) 0.0000 0.0461 0.3146 Karena nilai Prob. Chi-Square(14) 0,0461 lebih kecil dari 0,05, maka dapat disimpulkan model diatas mengandung heteroskedastisitas. Dalam analisis regresi diperlukan suatu metode untuk menduga parameter agar memenuhi sifat BLUE (Best Linear Unbiased Estimator), salah satu metode yang paling sering digunakan adalah Ordinary Least Square (OLS)atau sering disebut dengan Metode Kuadrat Terkecil (MKT). Salah satu asumsi klasik yang harus dipenuhi dalam estimasi OLS agar hasil estimasinya dapat diandalkan, yaitu ragam sisaan homogeny E(u i2) = σ2 (homoskedastisitas). Pelanggaran terhadap asumsi homoskedastisitas disebut heteroskedastisitas, yang artinya galat bersifat tidak konstan. 92 | B A H A N A J A R E K O N O M E T R I K A 1 Konsekuensi dari terjadi heteroskedastisitas dapat mengakibatkan penduga OLS yang diperoleh tetap memenuhi persyaratan tak bias, tetapi varian yang diperoleh menjadi tidak efisien, artinya varian cenderung membesar sehingga tidak lagi merupakan varian yang kecil. Dengan demikian model perlu diperbaiki dulu agar pengaruh dari heteroskedastisitas hilang (Gujarati, 2003) . Perbaikan heteroskedastisitas dapat dilakukan melalui : a. Melalui Logaritma Lakukan regresi LS LOG(IMP) C LOG(CONS) lOG(EKS) LOG(AK) LOG(POP) Dependent Variable: LOG(IMP) Method: Least Squares Date: 01/09/17 Time: 05:51 Sample: 1990 2014 Included observations: 25 Variable C LOG(CONS) LOG(EKS) LOG(AK) LOG(POP) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) Coefficient Std. Error 284.8554 1.941547 0.635442 0.700437 -16.65656 0.985814 0.982977 0.159415 0.508260 13.22201 347.4638 0.000000 t-Statistic 96.85826 2.940951 0.351879 5.517657 0.372278 1.706901 0.452365 1.548390 5.608760 -2.969740 Prob. 0.0081 0.0000 0.1033 0.1372 0.0076 Mean dependent var 13.57581 S.D. dependent var 1.221827 Akaike info criterion -0.657761 Schwarz criterion -0.413986 Hannan-Quinn criter. -0.590148 Durbin-Watson stat 1.115773 Uji heteroskedastisitas dengan uji White Pilih : view Residual Diagnostics Heteroskedasticity Test White OK 93 | B A H A N A J A R E K O N O M E T R I K A 1 Heteroskedasticity Test: White F-statistic 3.011030 Prob. F(9,15) Obs*R-squared 16.09248 Prob. Chi-Square(9) Scaled explained SS 15.04800 Prob. Chi-Square(9) 0.0288 0.0650 0.0896 Karena nilai Prob. Chi-Square(9) sebesar 0,065, lebih besar dari 0,05, maka dapat disimpulkan model diatas mengandung tidak heteroskedastisitas. b. cara mengatasi heteroskedastisitas pada regresi dengan metode Weighted Least Square . Uji menguji ada tidaknya heteroskedastisitas dapatjuga digunakan Uji Breusch Pagan Godfrey (BPG). Hipotesis: H0: tidak ada heteroskedastisitas H1: ada heteroskedastisitas Heteroskedasticity Test: Breusch-Pagan-Godfrey F-statistic Obs*R-squared Scaled explained SS 12.01533 Prob. F(4,20) 17.65368 Prob. Chi-Square(4) 11.76442 Prob. Chi-Square(4) 0.0000 0.0014 0.0192 Berdasarkan perhitungan dengan metode BPG diperoleh bahwa H0 ditolak yang artinya terdapat masalah Heteroskedastisitas dalam model, sehingga diperlukan adanya perbaikan pada model agar tidak menyesatkan kesimpulan. Persoalan heteroskedastisitas dapat ditangani dengan melakukan pembobotan suatu faktor yang tepat kemudian menggunakan metode OLS terhadap data yang telah diboboti. Pemilihan terhadap suatu faktor untuk pembobotan tergantung bagaimana sisaan berkorelasi dengan X atau Y, jika sisaan proporsional terhadap Xi maka model akan dibagi engan X i , jika sisaan adalah proporsional dengan sehingga model akan dibagi dengan Xi2, selain proporsional dengan X1 dan Xi2 bisa juga diasumsikan bahwa pola varian sisaan adalah proporsional dengan [E(Yi)]2 sehingga dibagi dengan E(Yi) . Namun dalam prakteknya tidak 1 1 1 selalu dengan pembobotan dapat mengatasi , , X 1 X 1 E Yi 94 | B A H A N A J A R E K O N O M E T R I K A 1 heteroskedastisitas karena sesungguhnya pembobot yang diberikan bergantung pada pola sebaran sisaan terhadap variabel bebas maupun variabel terikat. Oleh karena itu, dalam penelitian ini faktor pembobot yang akan dianalisis adalah 1 , 1 , 1 , dan 1 (dimana σ = residual i X 1 X 1 E Yi kuadrat). Pembobotan yang digunakan untuk mengatasi adalah dengan mengalikan semua variable dengan 1 , sehingga diperoleh variable i baru sebagai berikut : Tabel 6.3. Variabel baru setelah pembobotan Tahun 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 Eks2 2.621783 6.463996 89.52568 396.505 -15.7647 -12.048 -9.52208 -7.59771 -43.457 1.095045 -1.87041 -2.87528 -7.79908 -16.1859 -11.0095 -9.71356 -72.1373 -4.44035 -23.6262 3.341787 2.50583 2.550768 2.712767 -2.29378 -3.1197 Cons2 0.670628 1.636083 22.28782 113.9855 -4.8733 -4.24184 -3.69842 -3.19146 -27.4715 1.274185 -1.81296 -3.36009 -10.933 -23.8656 -15.9747 -14.0803 -112.013 -7.62058 -44.2356 7.600355 5.797379 5.783871 6.775881 -6.17747 -9.19976 95 | B A H A N A J A R E K O N O M E T R I K A 1 Imp2 0.536503 1.308867 17.83026 91.18837 -3.89864 -3.39348 -2.95873 -2.55317 -21.9772 1.019348 -1.45037 -2.68807 -8.74642 -19.0925 -12.7797 -11.2643 -89.6106 -6.85852 -39.812 6.84032 5.217641 5.205484 5.420705 -2.67087 -3.93332 AK2 304.6944 643.5391 7971.872 33826.06 -1242.94 -895.536 -667.954 -501.639 -2617.54 98.07796 -179.046 -277.233 -771.614 -1532.8 -930.698 -713.652 -4908.71 -337.68 -1666.69 265.7101 175.0199 157.9226 167.9584 -138.258 -189.098 Pop2 1015.648 2145.13 26572.91 112753.5 -4143.13 -2985.12 -2226.51 -1672.13 -8725.13 326.9265 -447.614 -693.082 -1929.03 -3831.99 -2326.74 -1784.13 -12271.8 -705.132 -3470.49 550.7208 362.9924 326.2078 345.9367 -284.462 -387.848 Lakukan regresi LS IMP2 C CONS2 EKS2 AK2 POP2 Method: Least Squares Date: 01/09/17 Time: 05:47 Sample: 1990 2014 Included observations: 25 Variable Coefficient Std. Error t-Statistic Prob. C CONS2 EKS2 AK2 POP2 1.081297 -0.123846 1.439465 0.042008 -0.016739 0.055690 0.033695 0.054908 0.001491 0.000594 19.41639 -3.675453 26.21585 28.17096 -28.19219 0.0000 0.0015 0.0000 0.0000 0.0000 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) 0.999955 0.999946 0.207613 0.862064 6.617805 112074.9 0.000000 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat -3.964814 28.37547 -0.129424 0.114351 -0.061812 1.533574 Lakukan Uji heteroskedastisitas dengan uji White Pilih : view Residual Diagnostics Heteroskedasticity Test Breusch-Pagan-Godfrey OK Heteroskedasticity Test: Breusch-Pagan-Godfrey F-statistic Obs*R-squared Scaled explained SS 1.084458 Prob. F(4,20) 4.455852 Prob. Chi-Square(4) 6.778892 Prob. Chi-Square(4) 0.3907 0.3478 0.1480 Berdasarkan perhitungan dengan metode BPG diperoleh bahwa H0 diterima yang artinya tidak terdapat masalah Heteroskedastisitas dalam model (Prob. Chi-Square(4) = 0.34 lebih besar dari α = 0.05) Dapat disimpulkan bahwa pembobot pada α taraf sebesar 0,05 dapat mengatasi heteroskedastisitas . 96 | B A H A N A J A R E K O N O M E T R I K A 1 6.3. Autokorelasi Setelah kita ketahui konsekuensi masalah autokorelasi dimana estimator dari metode OLS masih linier, tidak bias tetapi tidak mempunyai varian yang minimum. Penyembuhan masalah autokorelasi sangat tergantung dari sifat hubungan antara residual. Atau dengan kata lain bagaimana bentuk struktur autokorelasi. Model regresi sederhana seperti dalam persamaan (6.21) sbb: Yt 0 1 X t et (6.21) Diasumsikan bahwa residual mengikuti model AR(1) sebagai berikut: et et 1 vt 1 1 (6.22) Penyembuhan masalah autokorelasi dalam model ini tergantung dua hal: (1) jika atau koefisien model AR(1) diketahui; (2) jika tidak diketahui tetapi bisa dicari melalui estimasi. a. Ketika Struktur Autokorelasi Diketahui Pada kasus ketika koefisien model AR(1) yakni struktur autokorelasi diketahui, maka penyembuhan autokorelasi dapat dilakukan dengan transformasi persamaan dikenal sebagai metode Generalized difference equation. Pada bab 7 kita telah mengembangkan metode GLS untuk mengatasi masalah heteroskedastisitas yakni ketika varian residual tidak konstan. Dengan melakukan transformasi model kita dapat menghilangkan masalah heteroskedastisitas sehingga kita kemudian dapat mengestimasi model dengan menggunakan metode OLS. Untuk menjelaskan metode Generalized difference equation dalam kasus adanya autokorelasi, misalkan kita mempunyai model regresi sederhana dan residualnya (et) mengikuti pola autoregresif tingkat pertama AR(1) sbb: Yt 0 1 X t et et et 1 vt 1 1 (6.23) (6.24) Dimana residual vt memenuhi asumsi residual metode OLS yakni E(vt)=0; Var(vt) = 2; dan Cov (vt,vt-1) =0. Kelambanan (lag) satu persamaan (6.23) sbb: 97 | B A H A N A J A R E K O N O M E T R I K A 1 Yt 1 0 1 X t 1 et 1 (6.25) Jika kedua sisi dalam persamaan (6.25) dikalikan dengan maka akan menghasilkan persamaan sbb: (6.26) Yt 1 0 1 X t 1 et 1 Kemudian persamaan (6.23) dikurangi persamaan (6.25) akan menghasilkan persamaan diferensi tingkat pertama sbb: Yt Yt 1 0 0 1 X t 1 X t 1 et et 1 Yt Yt 1 0 (1 ) 1 X t 1 X t 1 vt 0 (1 ) 1 ( X t X t 1 ) vt (6.27) dimana vt et et 1 dan memenuhi asumsi OLS seperti persamaan (6.24) Persamaan (6.27) tersebut dapat kita tulis menjadi: Yt 0 t X t vt (6.28) Dimana Yt (Yt Yt 1 ); 0 0 (1 ); 1 1 ; X t ( X t X t 1 ) Residual vt dalam persamaan (6.28) sudah terbebas dari masalah autokorelasi sehingga memenuhi asumsi OLS. Sekarang kita bisa mengaplikasikan metode OLS terhadap transformasi variabel Y* dan X* dan mendapatkan estimator yang menghasilkan karakteristik estimator yang BLUE. b. Ketika Struktur Autokorelasi Tidak Diketahui Walaupun metode penyembuhan masalah autokorelasi sangat mudah dilakukan dengan metode generalized difference equation jika strukturnya diketahui, namun metode ini dalam prakteknya sangat sulit dilakukan. Kesulitan ini muncul karena sulitnya kita untuk mengetahui nilai . Oleh karena itu kita harus menemukan cara yang paling tepat untuk mengestimasi . Ada beberapa metode yang telah dikembangkan oleh para ahli ekonometrika untuk mengestimasi nilai . 1) Metode Diferensi Tingkat Pertama Nilai terletak antara -1 1. Jika nilai = 0 berarti tidak ada korelasi residual tingkat pertama (AR 1). Namun jika nilai = 98 | B A H A N A J A R E K O N O M E T R I K A 1 1 maka model mengandung autokorelasi baik positif maupun negatif. Ketika nilai dari = +1, masalah autokorelasi dapat disembuhkan dengan diferensi tingkat pertama metode generalized difference equation. Misalkan kita mempunyai model sederhana seperti persamaan (6.29) sebelumnya, metode diferensi tingkat pertama (first difference) dapat dijelaskan sbb: Yt 0 1 X t et (6.29) Diferensi tingkat pertama persamaan (6.23) tersebut sebagaimana dalam persamaan (6.30) sebelumnya sbb: Yt Yt 1 0 (1 ) 1 X t 1 X t 1 et et 1 (6.30) Jika = +1 maka persamaan tersebut dapat ditulis kembali menjadi Yt Yt 1 1 ( X t X t 1 ) (et et 1 ) (6.31) Atau dapat ditulis menjadi persamaan sbb: Yt 1 X t vt (6.32) dimana adalah diferensi dan vt et et 1 Residual vt dari persamaan (6.32) tersebut sekarang terbebas dari masalah autokorelasi. Metode first difference ini bisa diaplikasikan jika koefisien autokorelasi cukup tinggi atau jika nilai statistik Durbin-Watson (d) sangat rendah. Sebagai rule of thumb jika R2 > d, maka kita bisa menggunakan metode first difference. Dari transformasi first difference ini sekarang kita tidak lagi mempunyai intersep atau konstanta dalam model. Konstanta dalam model dapat dicari dengan memasukkan variabel trend (T) di dalam model aslinya. Misalkan model awalnya dengan trend sbb: Yt 0 1 X t 2T et (6.33) dimana T adalah trend, nilainya mulai satu pada awal periode dan terus menaik sampai akhir periode. Residual et dalam persamaan (6.24) tersebut mengikuti autoregresif tingkat pertama. Transformasi persamaan (6.34) dengan metode first difference akan menghasilkan persamaan sbb: Yt 1 X 1t 2 vt 99 | B A H A N A J A R E K O N O M E T R I K A 1 (6.34) dimana residual vt et et 1 Pada proses diferensi tingkat pertama persamaan (6.32) menghasilkan persamaan (6.33) yang mempunyai konstanta sedangkan diferensi pertama pada persamaan (6.34) tanpa menghasilkan konstanta. 2) Estimasi Didasarkan Pada Berenblutt- Webb Metode transformasi dengan first difference bisa digunakan hanya jika nilai tinggi atau jika nilai d rendah. Dengan kata lain metode ini hanya akan valid jika nilai = +1 yaitu jika terjadi autokorelasi positif yang sempurna. Pertanyaannya bagaimana kita bisa mengetahui asumsi bahwa = +1. Berenblutt-Webb telah mengembangkan uji statistik untuk menguji hipotesis bahwa = +1. Uji statistik dari Berenblutt-Webb ini dikenal dengan uji statistik g (Gujarati, 2005). Rumus statistiknya dapat ditulis sbb: n g 2 t 2 n e (6.34) t t 1 Dimana et adalah residual dari regresi model asli dan vt merupakan residual dari regresi model first difference. Dalam menguji signifikansi statistik g diasumsikan model asli mempunyai konstanta. Kemudian kita dapat menggunakan tabel Durbin-Watson dengan hipotesis nol = 1, tidak lagi dengan hipotesis nol = 0. Keputusan bahwa = 1 ditentukan dengan membandingkan nilai hitung g dengan nilai kritis statistik d. Jika g dibawah nilai batas minimal dL maka tidak menerima hipotesis nol sehingga kita bisa mengatakan bahwa = 1 atau ada korelasi positif antara residual. 3) Estimasi Didasarkan Pada Statistik d Durbin Watson Kita hanya bisa mengaplikasikan metode transformasi first difference jika nilai tinggi yakni mendekati satu. Metode ini tidak bisa digunakan ketika rendah. Untuk kasus nilai rendah maka kita bisa menggunakan statistik d dari Durbin Watson. Kita bisa mengestimasi dengan cara sbb: d 2(1 ˆ ) atau dapat dinyatakan dalam persamaan sbb: 100 | B A H A N A J A R E K O N O M E T R I K A 1 (6.35) ˆ 1 d 2 (6.36) Sebagaimana pembahasan sebelumnya, kita bisa mencari nilai dari estimasi statistik pada persamaan (6.36) di atas. Asumsi first difference menyatakan bahwa ˆ 1 hanya terjadi jika d=0 di dalam persamaan (6.36). Begitu pula jika d = 2 maka ˆ 0 dan bila d =4 maka ˆ 1 . Persamaan tersebut hanya suatu pendekatan tetapi kita bisa menggunakan nilai statistik d untuk mendapatkan nilai . Di dalam sampel besar kita dapat mengestimasi dari persamaan (6.36) dan menggunakan yang kita dapatkan untuk model generalized difference equation dalam persamaan (6.13) sebelumnya. 4) Estimasi Dengan Metode Dua Langkah Durbin Untuk menjelaskan metode ini maka kita kembali ke model generalized difference equation persamaan (6.37). Kita tulis kembali persamaan tersebut sbb: Yt Yt 1 0 0 1 X t 1 X t 1 et et 1 (6.37) Atau dapat kita tulis kembali menjadi Yt 0 (1 ) 1 X t 1 1 X t 1 Yt 1 vt (6.38) Dimana vt (et et 1 ) Setelah mendapatkan persamaan (6.38), Durbin menyarankan untuk menggunakan prosedur dua langkah untuk mengestimasi yaitu: 1. Lakukan regresi dalam persamaan (6.38) dan kemudian perlakukan nilai koefisien Yt-1 sebagai nilai estimasi dari . Walaupun ini bias, tetapi merupakan estimasi yang konsisten 2. setelah mencapai pada langkah pertama, kemudian lakukan transformasi variabel Yt (Yt Yt 1 ) dan X t ( X t X t 1 ) dan kemudian lakukan regresi metode OLS pada transformasi variabel persamaan (6.11.) 101 | B A H A N A J A R E K O N O M E T R I K A 1 5) Estimasi Dengan Metode Cochrane-Orcutt Uji ini merupakan uji alternatif untuk memperoleh nilai yang tidak diketahui. Metode Cochrane-Orcutt sebagaimana metode yang lain menggunakan nilai estimasi residual et untuk memperoleh informasi tentang nilai (Pindyck, S and Daniel. L, 1998). Untuk menjelaskan metode ini kita misalkan mempunyai model regresi sederhana sbb: Yt 0 1 X t et (6.39) Diasumsikan bahwa residual (et) mengikuti pola autoregresif (AR1) sbb: et et 1 vt (6.40) dimana residul vt memenuhi asumsi OLS Metode yang kita bicarakan sebelumnya untuk mengetimasi hanya merupakan estimasi tunggal terhadap . Oleh karena itu, Cochrane-Orcutt merekomendasi untuk mengestimasi dengan regresi yang bersifat iterasi sampai mendapatkan nilai yang menjamin tidak terdapat masalah autokorelasi dalam model. Adapun metode iterasi dari Cochrane-Orcutt dapat dijelaskan sbb: 1. Estimasi persamaan (6.39) dan kita dapatkan nilai residualnya êt 2. Dengan residual yang kita dapatkan maka lakukan regresi persamaan berikut ini: eˆt ˆ eˆt 1 vt (6.41) 3. Dengan ̂ yang kita dapatkan pada langkah kedua dari persamaan (6.41) kemudian kita regresi persamaan berikut ini: Yt ˆYt 1 0 ˆ 0 1 X t ˆ1 X t 1 et ˆ et 1 (6.42) Yt ˆYt 1 0 (1 ˆ ) 1 ( X t ˆX t 1 ) vt atau dapat ditulis dalam bentuk yang lebih sederhana menjadi persamaan Y 0 1 X t et dimana: 0 (1 ˆ ) 0 102 | B A H A N A J A R E K O N O M E T R I K A 1 (6.43) 4. Karena kita tidak mengetahui apakah nilai ̂ yang diperoleh dari persamaan (6.41) adalah nilai estimasi yang terbaik, maka masukan nilai 0 0 (1 ˆ ) dan 1 yang diperoleh dalam persamaan (6.43) ke dalam persamaan awal (6.39) dan kemudian dapatkan residualnya êt sbb: eˆt Yt ˆ0 ˆ1 X t (6.44) 5. Kemudian estimasi regresi sbb: eˆt ˆˆ eˆt wt (6.45) ̂ˆ yang kita peroleh dari persamaan (6.45) ini merupakan langkah kedua mengestimasi nilai Karena kita tidak juga mengetahui apakah langkah kedua ini mampu mengetimasi nilai yang terbaik maka kita dapat melanjutkan pada langkah ketiga dan seterusnya. Pertanyaannya, sampai berapa langkah kita harus berhenti melakukan proses iteratif untuk mendapatkan nilai . Menurut Cochrane-Orcutt, estimasi nilai akan kita hentikan jika nilainya sudah terlalu kecil. Contoh Kasus : Data perkembangan Ekspor, Konsumsi, Impor dan Jumlah penduduk di Negara GHI sebagai berikut : Tabel 6.4. Perkembangan Ekspor, Konsumsi, impor, dan populasi Tahun Eks Cons 1990 468359 119802 1991 556306 140805 1992 632582 157484 1993 671218 192959 1994 737948 228119 1995 794926 279876 1996 855022 332094 1997 921714 387171 1998 1024791 647824 1999 698856 813183 2000 883948 856798 2001 889649 1039655 103 | B A H A N A J A R E K O N O M E T R I K A 1 Imp 95842 112644 125987 154367 182495 223901 265676 309737 518259 650547 685439 831724 Pop 181436821 184614740 187762097 190873248 193939912 196957845 199926615 202853850 205753493 208644079 211540428 214448301 Tahun 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 Eks 878823 930554 1056442 1231826 1347685 1462818 1602275 1447012 1667918 1914268 1945064 2026120 2046740 Cons 1231965 1372078 1532888 1785596 2092656 2510504 2999957 3290996 3858822 4340605 4858331 5456626 6035674 Imp 985572 1097662 1226311 1428477 1674125 2259453 2699961 2961896 3472940 3906545 3886665 2359212 2580527 Pop 217369087 220307809 223268606 226254703 229263980 232296830 235360765 238465165 241613126 244808254 248037853 251268276 254454778 Lakukan regresi LS Log(IMP) C Log(CONS) Log(EKS) Log(POP) Hasilnya seperti di bawah ini : Dependent Variable: LOG(IMP) Method: Least Squares Date: 01/09/17 Time: 07:01 Sample: 1990 2014 Included observations: 25 Variable C LOG(CONS) LOG(EKS) LOG(POP) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) Coefficient Std. Error 250.1596 1.933802 0.529593 -14.10181 0.984114 0.981844 0.164633 0.569188 11.80679 433.6286 0.000000 t-Statistic Prob. 2.570601 5.321971 1.401305 -2.547255 0.0178 0.0000 0.1757 0.0188 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat 13.57581 1.221827 -0.624543 -0.429523 -0.570453 0.910714 97.31562 0.363362 0.377928 5.536083 Lakukan Uji Autokorelasi dengan uji LM Pilih : view Residual Diagnostics Serial Correlation LM Test masukan angka 2 OK 104 | B A H A N A J A R E K O N O M E T R I K A 1 Hasilnya seperti output dibawah ini Breusch-Godfrey Serial Correlation LM Test: F-statistic Obs*R-squared 4.775548 Prob. F(2,19) 8.363160 Prob. Chi-Square(2) 0.0209 0.0153 Dari hasil perhitungan Uji LM diperoleh nilai Prob. Chi-Square(2) = 0,0153 lebih kecil dari α = 0,05 berti H0 ditolak, artinya dalam model diatas model yang digunakan mengandung autokorelasi. Konsekuensi masalah autokorelasi dimana estimator dari metode OLS masih linier, tidak bias tetapi tidak mempunyai varian yang minimum. Perbaikan Autokorelasi Perbaikan Autokorelasi digunakan metode transformasi first difference jika nilai tinggi yakni mendekati satu. ˆ 1 d seperti dalam persaman 2 (6.36), sehingga ρ dapat di cari dengan formula dalam persamaan 6,36. Karena hasil regresi dengan log(imp)=f(log(cons), log(eks), log(pop)) diperoleh dw =0.910714, maka ρ diperoleh ρ = 1-(0,910714/2) = 0.5446. Tabel 6.5. Pembentukan Variabel Baru Ekspor, Konsumsi, impor, dan populasi Tahun log(Eks)* log(Cons)* log(Imp)* log(Pop)* 1991 2.656873 2.382668 2.33854 3.768209 1992 2.671972 2.393078 2.348949 3.771444 1993 2.667326 2.454826 2.410697 3.774582 1994 2.694465 2.479471 2.435342 3.777617 1995 2.704348 2.528681 2.484552 3.780553 1996 2.718406 2.554609 2.510481 3.783398 1997 2.733786 2.580786 2.536657 3.786172 1998 2.76206 2.768045 2.723916 3.788898 1999 2.570737 2.745019 2.700891 3.7916 2000 2.763322 2.713936 2.669807 3.794287 2001 2.710539 2.785588 2.74146 3.796955 2002 2.703701 2.813542 2.769413 3.799601 2003 2.731437 2.820177 2.776048 3.802233 2004 2.773012 2.84283 2.798701 3.804855 2005 2.809704 2.882888 2.83876 3.807467 2006 2.812413 2.915708 2.871579 3.810063 105 | B A H A N A J A R E K O N O M E T R I K A 1 Tahun log(Eks)* log(Cons)* log(Imp)* log(Pop)* 2007 2.826753 2.957237 2.964261 3.812645 2008 2.846909 2.99153 2.970694 3.815227 2009 2.781106 2.989612 2.968776 3.817819 2010 2.866917 3.036838 3.016002 3.820415 2011 2.893139 3.050284 3.029448 3.823018 2012 2.867485 3.071392 2.999403 3.825603 2013 2.881441 3.095176 2.7838 3.828122 2014 2.876182 3.111507 2.940825 3.830534 Dimana : Log(ekst)* Log(const)* Log(impt)* Log(popt)* = Log(ekst)-0.5446*Log(ekst-1) = Log(const)-0.5446*Log(const-1) = Log(impt)-0.5446*Log(impt-1) = Log(popt)-0.5446*Log(popt-1) Lakukan regresi LS Log(IMP)* C Log(CONS)* Log(EKS)* Log(POP)* Hasilnya seperti di bawah ini : Dependent Variable: LOG(IMP)* Method: Least Squares Date: 01/09/17 Time: 07:37 Sample (adjusted): 1991 2014 Included observations: 24 after adjustments Variable Coefficient Std. Error t-Statistic Prob. C LOG(CONS)* LOG(EKS)* LOG(POP)* 28.69959 0.118989 1.529882 -8.041788 16.89465 0.301800 0.351877 4.805893 1.698738 0.394264 4.347779 -1.673318 0.1049 0.6976 0.0003 0.1098 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) 0.937858 0.928537 0.059480 0.070758 35.86399 100.6150 0.000000 106 | B A H A N A J A R E K O N O M E T R I K A 1 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat 2.734542 0.222501 -2.655333 -2.458991 -2.603243 1.332800 Lakukan Uji Autokorelasi dengan uji LM Pilih : view Residual Diagnostics Serial Correlation LM Test masukan angka 2 OK Breusch-Godfrey Serial Correlation LM Test: F-statistic Obs*R-squared 1.596644 Prob. F(2,18) 3.616187 Prob. Chi-Square(2) 0.2300 0.1640 Dari hasil perhitungan Uji LM diperoleh nilai Prob. Chi-Square(2) = 0,1640 lebih besar dari α = 0,05 berti H0 diterima, artinya dalam model diatas model yang digunakan tidak mengandung autokorelasi. 107 | B A H A N A J A R E K O N O M E T R I K A 1 BAB 7 ANALISIS REGRESI DENGAN EVIEWS Model regresi sederhana dilakukan jika bermaksud meramalkan bagaimana keadaan (naik turunnya) variabel dependen (kriterium), bila ada satu variabel independen sebagai prediktor dimanipulasi (dinaik turunkan nilainya), Persamaan yang diperoleh dari regresi sederhana adalah Y = β0 + β1 X + µ Tiga model persamaan tunggal yang umum digunakan adalah OLS, ILS, dan 2SLS (Gujarati dan Porter, 2009), Ordinary least square (OLS) merupakan metode estimasi yang sering digunakan untuk mengestimasi fungsi regresi populasi dan fungsi regresi sampel, Kriteria OLS adalah “line best fit” atau jumlah kuadrat dari deviasi antara titik-titik observasi dengan garis regresi adalah minimum, (penjelasan OLS, ILS dan 2SLS secara teknis dapat baca di Buku Gujarati dan Porter, 2009, Dasar-dasar ekonometrika, Jakarta : Salemba Empat), 108 | B A H A N A J A R E K O N O M E T R I K A 1 Tabel 7.1 Data Inflasi, GDP, Harga Minyak dan Tingkat Bunga riil Tahun 1990 sd 2012 Tahun 1990 1991 1992 1993 1994 1995 1996 1997 1998 1999 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 Inflasi 9,456366 9,416131 7,525736 9,687786 8,518497 9,432055 7,96848 6,229896 58,38709 20,48912 3,720024 11,50209 11,87876 6,585719 6,243521 10,45196 13,10942 6,407448 9,776585 4,813524 5,132755 5,3575 4,279512 GDP 840,2205 705,0475 752,318 840,3758 925,7217 1041,314 1153,588 1078,472 470,1961 679,7937 789,8059 756,931 909,8873 1076,219 1160,615 1273,465 1601,031 1871,288 2178,266 2272,041 2946,656 3471,435 3556,786 109 | B A H A N A J A R E K O N O M E T R I K A 1 Poil 69,6 75,1 79,8 80,2 106,8 108,1 98,6 106,0 130,5 94,2 70,4 71,7 93,9 101,0 104,4 92,9 99,9 143,4 175,6 126,6 158,3 187,1 166,7 Bunga 3,294167 2,216667 4,430833 6,039167 5,226667 2,134167 1,961667 1,803333 -6,9125 1,925 5,951667 3,065833 3,4425 6,345 7,680833 5,971667 4,568333 5,885833 5,105833 5,22 6,235 5,4725 5,848333 7.1. PENYELESAIAN Langkah pertama, Mentabulasi data ke dalam Excel Figure 1 : setting awal Langkah 2, Buka Eviews Klik File- New-WorkFile Klik pada frekuensi pilih “anual” atau tahunan kemudian isi nilai 1990 pada Start Date dan 2012 pada “End Date”. Klik OK maka akan terlihat tampilan sebagai berikut : Klik Quick empty groups edit, buka excel dan copy data dari excel dan paste di eviews, lalu ganti nama untuk ser01, ser02, ser03 dan ser04 dengan Inflasi, GDP, Poil dan Bunga. 110 | B A H A N A J A R E K O N O M E T R I K A 1 Langkah 3, Membuat Equation Klik Quick – Estimate Equation, lalu setting data seperti ini : Isilah Estimate Specification Inflasi c GDP Poil Bunga Klik OK 111 | B A H A N A J A R E K O N O M E T R I K A 1 Hasil Dependent Variable: INFLASI Method: Least Squares Date: 04/11/15 Time: 19:19 Sample: 1990 2012 Included observations: 23 Variable Coefficient Std. Error t-Statistic Prob. C GDP POIL BUNGA 13.15826 -0.005652 0.147798 -2.679244 5.951899 0.003241 0.076199 0.520047 2.210766 -1.744046 1.939625 -5.151925 0.0395 0.0973 0.0674 0.0001 R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) 0.786231 0.752478 5.476867 569.9254 -69.55072 23.29369 0.000001 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat 10.71174 11.00843 6.395714 6.593192 6.445379 1.489334 Interpretasi : Dari persamaan regresi diatas maka dapat disimpulkan : GDP dan tingkat BUNGA memiliki hubungan negatif signifikan dengan inflasi, sedangkan POIL memiliki pengaruh positif signifikan terhadap inflasi. 75,24 persen variable bebas dapat menjelaskan variable terikat, sisanya 24,76 dijelaskan oleh variable diluar model. Langkah 4, Uji Normalitas Pada hasil uji yang berinama “eq01”, klik Views – Residual Diagnostics Histogram – Normality test 112 | B A H A N A J A R E K O N O M E T R I K A 1 7.2. INTERPRETASI HASIL Nilai probabilitas adalah 0,833 (> 0,05) sehingga dapat dikatakan model ini adalah tidak signifikan, Sementara berdasarkan hasil uji normalitas dapat dilihat dari nilai probabilitas dari Jargue-Bera (JB), Jika probabilitas > 0,05, maka model dinyatakan normal, Berdasarkan parameter ini diketahui bahwa besaran nilai probabilitas pada JB adalah 0,833, lebih besar dibanding nilai 0,05, Dengan demikian dapat disimpulkan bahwa model regresi memenuhi asumsi normalitas, Langkah 5, Uji Serial Korelasi klik Views – Residual Diagnostics – Serial Correlation LM Test 113 | B A H A N A J A R E K O N O M E T R I K A 1 Kemudian akan muncul Klik OK Breusch-Godfrey Serial Correlation LM Test: F-statistic Obs*R-squared 1.053489 Prob. F(2,17) 2.536271 Prob. Chi-Square(2) 114 | B A H A N A J A R E K O N O M E T R I K A 1 0.3704 0.2814 Test Equation: Dependent Variable: RESID Method: Least Squares Date: 04/11/15 Time: 19:29 Sample: 1990 2012 Included observations: 23 Presample missing value lagged residuals set to zero. Variable C GDP POIL BUNGA RESID(-1) RESID(-2) R-squared Adjusted R-squared S.E. of regression Sum squared resid Log likelihood F-statistic Prob(F-statistic) Coefficient Std. Error t-Statistic Prob. 0.152145 0.157069 -0.058252 -0.445844 1.339112 -0.605675 0.8809 0.8770 0.9542 0.6613 0.1982 0.5527 0.926749 0.000511 -0.004432 -0.279152 0.368969 -0.155183 6.091227 0.003256 0.076085 0.626121 0.275532 0.256216 0.110273 -0.151412 5.461513 507.0782 -68.20705 0.421395 0.827409 Mean dependent var S.D. dependent var Akaike info criterion Schwarz criterion Hannan-Quinn criter. Durbin-Watson stat 2.88E-15 5.089764 6.452787 6.749003 6.527285 1.968138 Hasil analisis output berdasarkan tabel diatas, tampak bahwa nilai Obs probabilitas F-statistic 0,8274 > 0,05 maka dapat disimpulkan model diatas bebas dari masalah serial korelasi diterima. Langkah 6, Uji Heteroskedastisitas klik Views – Residual Diagnostics – Heteroskedasticity Test 115 | B A H A N A J A R E K O N O M E T R I K A 1 Pilih White Tekan OK Heteroskedasticity Test: White F-statistic Obs*R-squared Scaled explained SS 2.634672 Prob. F(9,13) 14.85553 Prob. Chi-Square(9) 10.50440 Prob. Chi-Square(9) 0.0551 0.0950 0.3112 Hasil analisis output berdasarkan tabel diatas, tampak bahwa nilai Obs*R squared 0,095, probabilitas X2 > 0,05 maka dapat disimpulkan model diatas tidak mengandung heteroskedastisitas. 116 | B A H A N A J A R E K O N O M E T R I K A 1 BAB 8 INTERPOLASI DATA Buku Insukindro yang berjudul ekonomi uang dan bank yang didalamnya terdapat cerita tentang interpolasi data. Interpolasi data merupakan metode pemecahan data menjadi data triwulan atau bentuk kuartalan, dimana data setahun dibagi menjadi empat data dalam bentuk kuartalan. Berikut rumus interpolasi data: Yt1=1/4{Yt-4,5/12(Yt-Yt-1)} Yt2=1/4{Yt-1,5/12(Yt-Yt-1)} Yt3=1/4{Yt+1,5/12(Yt-Yt-1)} Yt4=1/4{Yt+4,5/12(Yt-Yt-1)} Cara Melakukan Interpolasi Data dengan Eviews 7 Berikut ini adalah langkah-langkah melakukan interpolasi data: 1. Buka Eviews hingga muncul tampilan seperti di bawah ini : Klik File New Workfile 117 | B A H A N A J A R E K O N O M E T R I K A 1 Muncul tampilan seperti di bawah ini : Jika kita ingin melakukan interpolasi data dari data tahunan ke data kuartalan (misalnya) maka pada Frequency pilih Annual. Kemudian isikan dengan tahun yang sesuai dengan data anda, misalnya: Start date : 2000 End date : 2010 Klik OK, akan muncul tampilan seperti di bawah ini: 118 | B A H A N A J A R E K O N O M E T R I K A 1 Klik Quick Empty Group (Edit Series) Isikan data : Tahun 2000 2001 2002 2003 2004 2005 2006 2007 2008 2009 2010 GDP 213.634 223.817 232.749 241.291 259.578 274.014 287.921 306.373 324.768 336.093 357.201 119 | B A H A N A J A R E K O N O M E T R I K A 1 Setelah mengisikan data anda, kembali ke Workfile dan pilih Store Akan muncul kotak seperti ini: Pada kolom Store GDP as berikan nama variabel anda (misalnya “gdp”) Pada kolom Store in pilih Individual.DB? files 120 | B A H A N A J A R E K O N O M E T R I K A 1 Pada kolom Path for DB Files : pilih lokasi penyimpanan yang anda inginkan. Lokasi ini harus anda ingat karena kita akan menggunakannya kembali. Tutup Workfile anda. (tidak perlu disimpan) Pada menu Eviews anda, pilih Option General Option ...... Pilih Series and Alphas Pilih Quadratic Match Sum Ok Buat Workfile baru, dengan langkah seperti pada langkah 121 | B A H A N A J A R E K O N O M E T R I K A 1 pada kolom Frequency, anda pilih Quarterly (jika interpolasi anda dari data tahunan ke data kuartalan) atau Monthly (jika data yang anda inginkan adalah dari data tahunan ke data bulanan) Isikan Start date dan End date sesuai dengan data anda (misal Start date 2000 dan End date 2010) Setelah muncul tampilan seperti di bawah ini, klik Fetch 122 | B A H A N A J A R E K O N O M E T R I K A 1 Akan muncul tampilan seperti di bawah ini: Pada Fetch from pilih Individual .DB? files Pada path for DB Files pilih lokasi data tempat database yang anda simpan tadi Pada Objects to fecth tulis gdp Kemudian klik OK Pada Workfile anda akan muncul variabel yang sudah terinterpolasi. Klik gdp, maka akan muncul : 123 | B A H A N A J A R E K O N O M E T R I K A 1 124 | B A H A N A J A R E K O N O M E T R I K A 1 BAB 9 MENYAMAKAN TAHUN DASAR Misalkan kita ingin mencari data tentang PDB (Produks Domestik Bruto) suatu Negara yang diambil dari buku statististik berbagai terbitan, dan kita telah peroleh data PDRB sebagai berikut : Tahun PDB riil 2003 123,456 2004 129,629 2005 136,110 2006 141,555 2007 150,048 2008 157,550 2009 163,852 2010 173,683 2011 267,548 2012 278,250 2013 286,597 2014 298,061 2015 312,964 Sumber : data hipotesis 125 | B A H A N A J A R E K O N O M E T R I K A 1 Sekilas data diatas kelihatan benar, sehingga data tersebut siap diolah. Maka agar kita tidak terjebak kepada data yang kurang valid maka perlu kita cek pertumbuhan PDB nya terlebih dahulu sebagai berikut : Tahun PDB riil Pertumbuhan 2003 123,456 2004 129,629 5 2005 136,110 5 2006 141,555 4 2007 150,048 6 2008 157,550 5 2009 163,852 4 2010 173,683 6 2011 267,548 54.04343732 2012 278,250 4 2013 286,597 3 2014 298,061 4 2015 312,964 5 Sekarang baru terlihat bahwa pertumbuhan PDB tidak wajar, karena pertumbuhan ekonomi tahun 2011 sebesar 54,04 persen. Pertumbuhan ekonomi riil suatu Negara tidak pernah melebihi 2 digit. Kesalahan ini bias terjadi karena akibat perubahan tahun dasar yang dilakukan oleh pemerintah. Untuk itu kita cermati kembali data diatas berdasarkan PDB berdasarkan tahun dasarnya. Setelah kita susun ulang kedalam table, ternyata kita dapatkan informasi sebagai berikut : PDB Tahun PDB(2000=100) (2010=100) 2003 123,456 2004 129,629 2005 136,110 2006 141,555 2007 150,048 2008 157,550 2009 163,852 2010 173,683 2011 267,548 2012 278,250 2013 286,597 2014 298,061 2015 312,964 Sumber : data hipotesis 126 | B A H A N A J A R E K O N O M E T R I K A 1 Dari table tersebut ada 2 kemungkinan data disusun : 1. Data PDB berdasar harga konstan tahun 2000 2. Data PDB berdasar harga konstan tahun 2010 Langkah-langkan untuk menyamakan tahun dasar Pertama kita cari pertumbuhan PDB tahun 2011, misalkan PDB tahun 2011 tumbuh sebesar 4,72 persen. Maka kita cari dulu PDB tahun 2010 berdasarkan tahun dasar 2010 dan didapatkan angka sebesar 255.490.96. Tahun 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 PDB PDB(2000=100) (2010=100) 123,456 129,629 136,110 141,555 150,048 157,550 163,852 173,683 255.491 267,548 278,250 286,597 298,061 312,964 Tahun 2003 2004 2005 2006 2007 2008 2009 2010 2011 2012 2013 2014 2015 PDB PDB(2000=100) (2010=100) 123,456 129,629 136,110 141,555 150,048 157,550 231,759 163,852 241,029 173,683 255,491 267,548 278,250 286,597 298,061 312,964 Diperoleh dari Diperoleh dari Dan lakukan untuk tahun 2007 sampai dengan tahun 2003 dengan cara yang sama, sehingga diperoleh hasil sebagai berikut : 127 | B A H A N A J A R E K O N O M E T R I K A 1 PDB (2010=100) 181,606 190,686 200,220 208,229 220,723 231,759 241,029 255,491 267,548 278,250 286,597 298,061 312,964 Tahun PDB(2000=100) 2003 123,456 2004 129,629 2005 136,110 2006 141,555 2007 150,048 2008 157,550 2009 163,852 2010 173,683 2011 181,880 2012 189,155 2013 194,830 2014 202,623 2015 212,754 Hasil perhitungan PDB berdasar tahun dasar 2010 Jika data yang kita inginkan adalah PDB tahun dasar 2000 maka caranya adalah sebagai berikut : Tahun PDB(2000=100) 2003 123,456 2004 129,629 2005 136,110 2006 141,555 2007 150,048 2008 157,550 2009 163,852 2010 173,683 2011 181,880 2012 189,155 2013 2014 2015 PDB (2010=100) 181,606 190,686 200,220 208,229 220,723 231,759 241,029 255,491 267,548 278,250 286,597 298,061 312,964 Diperoleh dari 128 | B A H A N A J A R E K O N O M E T R I K A 1 Diperoleh dari Dan lakukan untuk tahun 2013 sampai dengan tahun 2015 dengan cara yang sama, sehingga diperoleh hasil sebagai berikut : Tahun PDB(2000=100) 2003 123,456 2004 129,629 2005 136,110 2006 141,555 2007 150,048 2008 157,550 2009 163,852 2010 173,683 2011 181,880 2012 189,155 2013 194,830 2014 202,623 2015 212,754 PDB (2010=100) 181,606 190,686 200,220 208,229 220,723 231,759 241,029 255,491 267,548 278,250 286,597 298,061 312,964 Walaupun data yang diperoleh berbeda berdasarkan tahun dasar tetapi hasil perhitungan pertumbuhan PDB nya tetap sama. Lihat hasilnya sebagai berikut : Tahun PDB(2000=100) Pertumbuhan 2003 123,456 2004 129,629 5.00 2005 136,110 5.00 2006 141,555 4.00 2007 150,048 6.00 2008 157,550 5.00 2009 163,852 4.00 2010 173,683 6.00 2011 181,880 4.72 2012 189,155 4.00 2013 194,830 3.00 2014 202,623 4.00 2015 212,754 5.00 PDB (2010=100) Pertumbuhan 181,606 190,686 5.00 200,220 5.00 208,229 4.00 220,723 6.00 231,759 5.00 241,029 4.00 255,491 6.00 267,548 4.72 278,250 4.00 286,597 3.00 298,061 4.00 312,964 5.00 Dari table diatas walaupun berbeda tahun dasar tetapi perhitungan pertumbuhan PDB tetap sama. 129 | B A H A N A J A R E K O N O M E T R I K A 1 DAFTAR PUSTAKA Agus Widarjono, Ekonometrika Teori dan Aplikasi untuk Ekonomi dan Bisnis, Edisi Kedua, Cetakan Kesatu, Penerbit Ekonisia Fakultas Ekonomi UII Yogyakarta 2007. Baltagi, Bagi (2005). Econometric Analysis of Panel Data, Third Edition. John Wiley & Sons. Budiyuwono, Nugroho, Pengantar Statistik Ekonomi & Perusahaan, Jilid 2, Edisi Pertama, UPP AMP YKPN, Yogyakarta, 1996. Barrow, Mike. Statistics of Economics: Accounting and Business Studies. 3rd edition. Upper Saddle River, NJ: Prentice-Hall, 2001 Catur Sugiyanto. 1994. Ekonometrika Terapan. BPFE, Yogyakarta Dajan, Anto. Pengantar Metode Statistik. Jakarta: Penerbit LP3ES, 1974 Daniel, Wayne W. Statistik Nonparametrik Terapan. Terjemahan Alex Tri Kantjono W. Jakarta: PT Gramedia Gujarati, Damodar N. 2003. Basic Econometrics. Third Edition.Mc. Graw-Hill, Singapore. Ghozali, Imam, Dr. M. Com, Akt, 2001, “Aplikasi Analisis Multivariate dengan Program SPSS”, Semarang, BP Undip. Insukindro (1996), “Pendekatan Masa Depan Dalam Penyusunan Model Ekonometrika: Forward-Looking Model dan Pendekatan Kointegrasi”, Jurnal Ekonomi dan Industri, PAU Studi Ekonomi, UGM, Edisi Kedua, Maret 1-6 Insukindro (1998a), “Sindrum R2 Dalam Analisis Regresi Linier Runtun Waktu”, Jurnal Ekonomi dan Bisnis Indonesia, Vol. 13, No. 41 1-11. Insukindro (1998b), “Pendekatan Stok Penyangga Permintaan Uang: Tinjauan Teoritik dan Sebuah Studi Empirik di Indonesia”, Ekonomi dan Keuangan Indonesia, Vol XLVI. No. 4: 451-471. Insukindro (1999), “Pemilihan Model Ekonomi Empirik Dengan Pendekatan Koreksi Kesalahan”, Jurnal Ekonomi dan Bisnis Indonesia, Vol. 14, No. 1: 1-8. Insukindro dan Aliman (1999), “Pemilihan dan Bentuk Fungsi Model Empiris: Studi Kasus Permintaan Uang Kartil Riil di Indonesia”, Jurnal Ekonomi dan Bisnis Indonesia. Vol. 13, No. 4: 49-61. Johnston, J. and J. Dinardo (1997), Econometric Methods, McGrow-Hill 130 | B A H A N A J A R E K O N O M E T R I K A 1 Koutsoyiannis, A (1977). Theory of Econometric An Introductory Exposition of Econometric Methods 2nd Edition, Macmillan Publishers LTD. Maddala, G.S (1992). Introduction to Econometric, 2nd Edition, Mac-Millan Publishing Company, New York. Nachrowi, D.N. dan H. Usman (2002). Penggunaan Teknik Ekonometrika. Jakarta: PT Raja Grafindo Persada. Pindyck, S and Daniel. L. Rubinfeld,” Econometrics Model and Economic Forecast, 1998, Singapore: McGraw-Hill, pp. 163-164 Sritua Arif.1993. Metodologi Penelitian Ekonomi. BPFE, Yogyakarta. Sumodiningrat, Gunawan. 2001. Ekonometrika Pengantar. Yogyakarta: PFEYogyakarta. Supranto, J. 1984. Ekonometrika. Jakarta: Lembaga Penerbit Fakultas Ekonomi Universitas Indonesia. Thomas, R.L. 1998. Modern Econometrics : An Intoduction. Addison-Wesley. Harlow, England. 131 | B A H A N A J A R E K O N O M E T R I K A 1 AGUS TRI BASUKI adalah Dosen Fakultas Ekonomi di Universitas Muhammadiyah Yogyakarta sejak tahun 1994. Mengajar Mata Kuliah Statistik, Ekonometrik, Matematika Ekonomi dan Pengantar Ekonomi. S1 diselesaikan di Program Studi Ekonomi Pembangunan Universitas Gadjah Mada Yogyakarta tahun 1993, kemudian pada tahun 1997 melanjutkan Magister Sains di Pascasarjana Universitas Padjadjaran Bandung jurusan Ekonomi Pembangunan. Dan saat ini penulis sedang melanjutkan Program Doktor Ilmu Ekonomi di Universitas Sebelas Maret Surakarta. Penulis selain mengajar di Universitas Muhammadiyah Yogyakarta juga mengajar diberbagai Universitas di Yogyakarta. Selain sebagai dosen, penulis juga menjadi konsultan di berbagai daerah di Indonesia. Selain Buku Ekonometrika dan Aplikasi dalam Ekonomi, penulis juga menyusun Buku : 1. Pengantar Teori Ekonomi, 2. Statistik Untuk Ekonomi dan Bisnis, 3. Electronic Data Processing 4. Analisis Regresi Dalam Penelitian Ekonomi dan Bisnis 5. Analisis Statistik dengan SPSS 132 | B A H A N A J A R E K O N O M E T R I K A 1