UJI ASUMSI KLASIK

Post on 06-Jan-2016

53 views 0 download

description

UJI ASUMSI KLASIK. Tujuan Pengajaran :. Mengerti apa yang dimaksud dengan uji asumsi klasik Mengerti item-item asumsi Menjelaskan maksud item-item asumsi Menyebutkan nama-nama asumsi yang harus dipenuhi Mengerti apa yang dimaksud dengan autokorelasi. - PowerPoint PPT Presentation

Transcript of UJI ASUMSI KLASIK

UJI ASUMSI KLASIK

Tujuan Pengajaran:

• Mengerti apa yang dimaksud dengan uji asumsi klasik

• Mengerti item-item asumsi• Menjelaskan maksud item-item asumsi• Menyebutkan nama-nama asumsi

yang harus dipenuhi • Mengerti apa yang dimaksud dengan

autokorelasi

• Mengerti apa yang dimaksud dengan Multikolinearitas

• Mengerti apa yang dimaksud dengan Heteroskedastisitas

• Mengerti apa yang dimaksud dengan Normalitas

• Menjelaskan timbulnya masalah-masalah dalam uji asumsi klasik

• Menjelaskan dampak dari autokorelasi, heteroskedastisitas, multikolinearitas, normalitas

• Menyebutkan alat deteksi dari masalah-masalah tersebut

• Menggunakan sebagian alat-alat deteksi

• Menjelaskan keterkaitan asumsi-asumsi

• Menjelaskan konsekuensi-konsekuensi dari Asumsi

asumsi-asumsi klasik

• Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE: (Best, Linear, Unbiased, Estimator.)

Gauss-Markov Theorem.

• BLUE: (Best, Linear, Unbiased, Estimator.)

Adalah asumsi yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem.

Best dimaksudkan sebagai terbaik

• Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang terkecil.

Linear

• Linear dalam model artinya model yang digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu.

• Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel

• Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.

10 asumsi yang menjadi syarat penerapan OLS,

• Gujarati (1995):

• Asumsi 1: Linear regressionModel.

• Model regresi merupakan hubungan linear dalam parameter.

• Y = a + bX +e•

• Untuk model regresi:• Y = a + bX + cX2 + e

• Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.

• Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang (X fixed in repeated sampling).

•  Tepatnya bahwa nilai X adalah nonstochastic (tidak random).

• Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance).

• Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yangsama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas

• Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).

• Asumsi 6: Variabel X dan disturbance e tidak berkorelasi.

• Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang

• diestimasi.

• Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.

• Asumsi 9: Model regresi secara benar telah terspesifikasi.

• Artinya, tidak ada spesifikasi yang bias, karena semuanya telahterekomendasi atau sesuai

• dengan teori.

• Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.

•  

• meskipun nilai t sudah signifikan ataupun tidak signifikan,

keduanya tidak dapat memberi informasi yang sesungguhnya.

• Untuk memenuhi asumsi-asumsi di atas, maka estimasi regresi hendaknya dilengkapi dengan uji-uji yang diperlukan, seperti:

• uji normalitas, autokorelasi, heteroskedastisitas, atupun multikolinearitas.

• Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas.

A. Uji Autokorelasi

A.1. Pengertian autokorelasi

• Autokorelasi adalah keadaan dimana variabel gangguan padaperiode tertentu berkorelasi dengan variabel gangguanpada periode lain.

• Asumsi terbebasnya autokorelasi ditunjukkan oleh nilai e yang mempunyai rata-rata nol, dan

variannya konstan.

A.2. Sebab-sebab Autokorelasi

•  • 1. Kesalahan dalam pembentukan

model, • 2. Tidak memasukkan variabel

yangpenting.• 3. Manipulasi data• 4. Menggunakan data yang tidak

empiris

A.3. Akibat Autokorelasi

• Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).

• ( Karena adanya masalah korelasi dapat menimbulkan adanyabias pada hasil regresi.)

1. Uji Durbin-Watson (DW Test).

dapat pula ditulis dalam rumus sebagai berikut:

DW test ini terdapat beberapa asumsi penting

• • 1. Terdapat intercept dalam model

regresi.• 2. variabel penjelasnya tidak

random (nonstochastics).

3. Tidak ada unsur lag dari variabel dependen di dalam model.

4. Tidak ada data yang hilang.

5. υ t = ρυ t −1 + ε t

Langkah-langkah pengujian autokorelasi menggunakan uji Durbin Watson (DW test) dapat dimulai dari menentukan hipotesis.

• (H◦)erdapat autokorelasi positif, atau, terdapat autokorelasi negatif.

•  

• Terdapat beberapa standar keputusan yang perlu dipedomani ketika

menggunakan DW test, yangsemuanya menentukan lokasi dimana

nilai DW berada.

Jelasnya adalah sebagai berikut:

•  DW < dL = terdapat atokorelasi positif

• dL< DW <dU = tidak dapat disimpulkan• (inconclusive)• dU > DW >4-dU = tidak terdapat

autokorelasi• 4-dU < DW <4-dL = tidak dapat

disimpulkan• (inconclusive)• DW > 4-dL = terdapat autokorelasi

negatif

• Dimana:• DW = Nilai Durbin-Watson d statistik• dU = Nilai batas atas (didapat dari

tabel)• dL = Nilai batas bawah

(didapat dari tabel)•  

• Ketentuan-ketentuan daerah hipotesis pengujian DW dapat diwujudkan dalam bentuk gambar sebagai berikut:

Gambar 3.3.: Daerah Uji Durbin Watson

• Bantuan dengan spss: 109-110

• (α)=5%,• N = 22• Prediktor : 2• batas atas (U) =1,54 • sedang batas bawah (L) = 1,15.• DW = 0,883

• 0,883 yang berarti lebih kecil dari nilai batas bawah, maka koefisien autokorelasi lebih kecil dari nol.

• Dengan demikian dapat disimpulkan bahwa hasil regresi tersebut belum terbebas dari masalah autokorelasi positif.

• Dengan katalain, Hipotesis nol (H◦) yang menyatakan tidak terdapat masalah autokorelasi dapat ditolak,

• sedang hipotesis nol (H◦) yang menyatakan terdapat masalah autokorelasi dapat diterima

Uraian di atasdapat pula dijelaskan dalam bentuk

gambar sbb

B. Uji Normalitas

• Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak.

Beberapa cara untuk melakukan uji normalitas, antara lain:

• 1. tendesi sentral (mean – median = 0)• 2. Menggunakan formula Jarque Bera

(JB test),

formula Jarque Bera (JB test),

• dimana:• S = Skewness (kemencengan)

distribusi data• K= Kurtosis (keruncingan)

Skewness

Kurtosis

• Bantuan SPSS : Hal 115 - 116

•  • 3) Mengamati sebaran data, dengan

melakukan hitungan-hitungan berapa prosentase data observasi dan berada di area mana.

Untuk menentukan posisi normal dari sebaran data, langkahawal yang dilakukan adalah menghitung standar deviasi.

• SD1 = 68 %• SD2 = 95%• SD3 = 99,7 %

Penentuan area ini penting, karena sebaran data yang dikatakan normal apabila

tersebar sebagai berikut:

• Sebanyak 68% dari observasi berada pada area SD1

• Sebanyak 95% dari sisanya berada pada area

• SD2• Sebanyak 99,7% dari sisanya berada

pada area SD3

sebaran data yang dikatakan normal

• Apabila data tidak normal, maka

• diperlukan upaya untuk mengatasi seperti: memotong data yang out liers, memperbesar sampel, atau melakukan transformasi data.

• Data yang tidak normal juga dapat dibedakan dari tingkat kemencengannya (skewness). Jika data cenderung

• menceng ke kiri disebut positif skewness, dan jika data cenderung menceng ke kanan disebut negatif skewness. Data dikatakan normal jika datanya simetris.

Lihat gambar berikut: 

• Ilustrasi:• Mean : 46 kg• Sd = 5 kg

• 68% x 30 = 10: (41-46) kg»10 : (46-52) kg »4 (36 – 41 ) kg»5 (51 – 56 ) kg»1 (> 36) Kg)

C. Uji Heteroskedastisitas

•  • C.1. Pengertian Heteroskedastisitas• Model akan menghadapi masalah

heteroskedastisitas. Heteroskedastisitas muncul apabila kesalahan (e) atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya

• rumus regresi diperoleh dengan asumsi bahwa variabel pengganggu (error) atau e, diasumsikan memiliki variabel yang konstan (rentangan e kurang lebih sama). Apabila terjadi varian e tidak konstan, maka kondisi tersebut dikatakan tidak homoskedastik atau mengalami heteroskedastisitas

C.2. Konsekuensi Heteroskedastisitas

1. Sb menjadi bias

2. nilai b bukan nilai yang terbaik.

3. Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan.

• Lain halnya, jika asumsi ini tidak terpenuhi, sehingga variance residualnya berubah-ubah sesuai perubahan observasi, maka akan mengakibatkan nilai Sb yang diperoleh dari hasil regresi akan menjadi bias.

C.3. Pendeteksian Heteroskedastisitas

• Untuk mendeteksi ada tidaknya heteroskedastisitas, dapat dilakukan dengan berbagai cara seperti uji grafik, uji Park, Uji Glejser, uji Spearman’s Rank Correlation, dan uji Whyte menggunakan Lagrange Multiplier

• Membandingkan sebaran data pada scatter plot

menggunakan uji Arch,

• e ² = a + bỶ ² + u .• Cari R ² • Kalikan R ² dengan n (sampel)/ R ² x n.

• Jika R2 x N lebih besar dari chi-square (χ2) tabel, maka standar error mengalami heteroskedastisitas.

• Sebaliknya, jika R2 x N lebih kecil dari chi-square (χ2) tabel, maka standar error telah bebas dari masalah

• heteroskedastisitas, atau telah homoskedastis.

• Masalah heteroskedastisitas lebih sering muncul dalam data cross section dari pada data time series

• Karena dalam data cross section menunjukkan obyek yang berbeda dan

• waktu yang berbeda pula. Antara obyek satu dengan yang lainnya tidak ada saling keterkaitan, begitu pula dalam hal waktu.

• Sedangkan data time series, antara observasi satu dengan yang lainnya saling mempunyai kaitan. Ada trend yang cenderung sama. Sehingga variance residualnya juga cenderung sama.

D. Uji Multikolinieritas

• D.1. Pengertian Multikolinearitas• Multikolinearitas: Multikolinieritas

adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model.

Sebagai gambaranpenjelas,

D.2. Konsekuensi Multikolinearitas

• Apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi

(b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t

•  

D.3. Pendeteksian Multikolinearitas

• Terdapat beragam cara untuk menguji multikolinearitas, di antaranya: menganalisis matrix korelasi dengan Pearson Correlation atau dengan Spearman’s Rho Correlation, melakukan regresi partial dengan teknik auxilary regression,

• pendapat Gujarati (1995:335) yang mengatakan bahwa bila korelasi antara dua variabel bebas melebihi 0,8 maka multikolinearitas menjadi masalah yang serius.

• Gujarati juga menambahkan bahwa, apabila korelasi antara variabel penjelas tidak lebih besar dibanding korelasi variabel terikat dengan masing-masing variabel penjelas, maka dapat dikatakan tidak terdapat masalah yang serius.

• Dengan demikian, dapat disimpulkan bahwa apabila angka korelasi lebih kecil dari 0,8 maka dapat dikatakan telah terbebas dari masalah multikolinearitas.

• Dalam kaitan adanya kolinear yang tinggi sehingga menimbulkan tidak terpenuhinya asumsi terbebas dari masalah multikolinearitas, dengan smempertimbangkan sifat data dari cross section, maka bila tujuan persamaan hanya sekedar untuk keperluan prediksi, hasil regresi dapat ditolerir, sepanjang nilai t signifikan.