BAB V UJI ASUMSI KLASIK

BAB V


UJI ASUMSI KLASIK

Di muka telah disinggung, baik dalam regresi linier sederhana maupun dalam regresi linier berganda, bahwa dalam kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah di uraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan regresi. Jika data yang diregresi tidak memenuhi asumsi- asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator.
Best dimaksudkan sebagai terbaik. Untuk memahami arti Best, perlu kembali kepada kesadaran kita bahwa analisis regresi linier digunakan untuk menggambarkan sebaran data dalam bentuk garis regresi. Dengan kata lain, garis regresi merupakan cara memahami pola hubungan antara dua seri data atau lebih. Hasil regresi dikatakan Best apabila garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari sebaran data, menghasilkan error yang terkecil. Perlu diketahui bahwa error itu sendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan oleh garis regresi. Jika  garis  regresi telah Best dan disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi akan efisien.
Linear mewakili linear dalam model, maupun linear dalam parameter. Linear dalam model artinya model yang


digunakan dalam analisis regresi telah sesuai dengan kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu. Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan merupakan fungsi linear dari sampel. Secara jelas bila diukur dengan nilai rata-rata.
Unbiased atau tidak bias, Suatu estimator dikatakan unbiased jika nilai harapan dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan bias.
Estimator yang efisien dapat ditemukan apabila ketiga kondisi di atas telah tercapai. Karena sifat estimator yang efisien merupakan hasil konklusi dari ketiga hal sebelumnya itu.
Asumsi-asumsi seperti yang telah dituliskan dalam bahasan OLS di depan, adalah asumsi  yang dikembangkan oleh Gauss dan Markov, yang kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa dengan asumsi-asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi syarat penerapan yaitu:
Asumsi      1:    Linear      regression       Model.      Model     regresi merupakan hubungan linear dalam parameter.
Y = a + bX +e
Untuk model regresi                           Y = a + bX + cX2 + e Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang linear dalam parameter sehingga OLS masih dapat diterapkan.

Asumsi 2: Nilai X adalah tetap dalam sampling yang diulang-ulang  (X fixed  in  repeated sampling).
Tepatnya bahwa nilai X adalah   nonstochastic
(tidak random).
Asumsi 3: Variabel pengganggu e memiliki rata-rata nol (zero mean of disturbance). Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja terdapat error yang berada di atas garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata harus bernilai nol.
Asumsi 4: Homoskedastisitas, atau variabel pengganggu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut heteroskedastisitas
Asumsi 5: Tidak ada otokorelasi antara variabel e pada setiap nilai xi dan ji (No autocorrelation between the disturbance).
Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel non random atau non stochastic.
Asumsi 7: Jumlah observasi atau besar sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka persamaan regresi tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus memiliki variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa dilakukan regresi.
Asumsi 9: Model regresi secara benar telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya telah terekomendasi atau sesuai dengan teori.
Asumsi 10. Tidak ada multikolinearitas antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak boleh sempurna atau tinggi.


Uji Autokorelasi


Pengertian autokorelasi

Dalam asumsi klasik telah dijelaskan bahwa pada model OLS harus telah terbebas dari masalah autokorelasi atau serial korelasi. Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section). Hanya saja masalah autokorelasi lebih sering muncul pada data time series, karena sifat data time series ini sendiri lekat dengan kontinyuitas dan adanya sifat ketergantungan  antar data. Sementara pada data cross section hal itu kecil kemungkinan terjadi.

Sebab-sebab Autokorelasi


1.     Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
2.     Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y. Sebagai misal kita ingin meneliti faktor apa saja yang mempengaruhi terjadinya inflasi.
Nah, tidak dimasukkannya JUB sebagai prediktor, sangat besar mengandung kecenderungan terjadinya autokorelasi.
3.     Manipulasi data..
4.     Menggunakan data yang tidak empiris


Akibat Autokorelasi

Uraian-uraian di atas mungkin saja mengajak kita untuk bertanya tentang apa dampak dari autokorelasi yang timbul. Pertanyaan seperti ini tentu saja merupakan sesuatu yang wajar, karena kita tentu mempunyai pilihan apakah mengabaikan adanya autokorelasi ataukah akan mengeliminasinya.
Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).

Pengujian Autokorelasi


Pengujian autokorelasi dimaksudkan untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi


A.  Uji Normalitas


Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
Beberapa cara dapat dilakukan untuk melakukan uji normalitas, antara lain:


1)    Menggunakan metode numerik yang membandingkan nilai statistik, yaitu antara nilai median dengan nilai mean. Data dikatakan normal (simetris) jika perbandingan antara mean dan median menghasilkan nilai yang kurang lebih sama. Atau apabila nilai mean jika dikurangi nilai median menghasilkan angka nol. Cara ini disebut ukuran tendensi sentral (Kuncoro, 2001: 41).
2)    Menggunakan formula Jarque Bera (JB test), yang rumusnya tertera sebagai berikut:


S 2
JB n

(K  3) 
2
 
+
 


6
dimana:

24    


S = Skewness (kemencengan) distribusi data K= Kurtosis (keruncingan)

Skewness sendiri dapat dicari dari formula sebagai berikut:
=
 
E( X )3 2
S      E( X 2 3
Kurtosis      dapat     dicari      dengan      formula      sebagai berikut:
K =
 
E( X )4
E( X )2



3)   

Ã¥          
 
Mengamati sebaran data, dengan melakukan hitungan-hitungan berapa prosentase data observasi dan berada di area mana. Untuk menentukan posisi normal dari sebaran data, langkah awal yang dilakukan adalah menghitung standar deviasi. Standar deviasi dapat dicari melalui rumus sebagai berikut:
(Dv Dv)
SD
n

                Pengertian Multikolinearitas
Multikolinieritas adalah suatu keadaan dimana terjadi korelasi linear yang ”perfect” atau eksak di antara variabel penjelas yang dimasukkan ke dalam model. Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah, tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat  yang sama. Apabila antara variabel penjelas memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat lagi dibedakan tingkat pengaruhnya   terhadapY, maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna. Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama sekali kesamaan.
Sebagai      gambaran      penjelas,      dapat    dilihat     pada gambar berikut ini:







2

X1                                     X1
Gb.Tidak berkolinear        Gb. Berkolinear lemah




Gb. Berkolinear sempurna



Konsekuensi Multikolinearitas

Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan  nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat   ditentukan   kepastian   nilainya,   sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26). Logikanya adalah seperti ini, jika antara X1 dan X2  terjadi kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya, karena dari formula OLS sebagaimana dibahas terdahulu,


b1 =

1       2         2        1  2


(     x y)(      x 2 )  (   x  y)(      x x  )
(x 2 )(x 2 )  (x x )2
1          2             1   2



akan menghasilkan bilangan pembagian,

0, sehingga1      0


nilai b1 hasilnya tidak menentu. Hal itu akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.

 





2.      Kesimpulan
Uji asumsi klasik adalah persyaratan statistic yang harus dipenuhi pada analisis regresi linier berganda yang berbasis Ordinary Least Square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik. Jika dat yang diregresi tidak memenuhi asumsi yang telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias. Jika hasil regresi telah memenuhi asumsi regresi maka nilai estimasi yang diperoleh bersifat BLUE yaitu Best, Linear, Unbiased, Estimator.
3.      Jawaban
a.    Asumsi Klasik adalah persyaratan statistic yang harus dipenuhi pada analisis regresi linier berganda yang berbasis OLS
b.   Asumsi asumsi yang ditetapkan :
-          linear regression model
-          nilai X
-          variable pengganggu e memiliki rata-rata nilai 0
-          homoskedastisitas
-          tidak ada otokorelasi antara variable e pada setiap nilai x dan j
-          variable x dan disturbance e tidak berkorelasi
-          jumlah observasi / besar sampel (n0 harus lebih besar dari jumlah parameter yang diestimasi
-          variable x harus memiliki variabilirtas
-          model regresi secara benar telah terspesifiikasi
-          tidak ada multikolinearitas antara variable penjelas
c.    Karena penyimpangan masing masing asumsi tidak mempunyai dampak yang sama terhadap regresi.
d.   Autokorelasi untuk melihat terjadinya korelasi antara suatu periode t dengan sebelumnya (t-1). Secara sederhana bahwa analisis regresi adalah untuk melihat pengaruh antar variable bebas terhadap variable terikat, jadi tidak boleh ada korelasi antar observasi dengan data observasi sebelumnya.
e.    Autokoerlasi timbul karena terdapat gangguan autokorelasi pada model regresi yang diteliti baik itu data jenis waktu ataupun data karet silang.
f.    Mendeteksi autokorelasi dengan danya ketergantunga atau kesalahan pengganggu yan gsecara otomatis mempengaruhi data berikutnya.
g.   Konsekuensi adanya masalah autokorelasi dalam model yaitu nilai t hitung akan menjadi bias karena niolai t diperoleh dari hasil bagi Sb terhadap b. berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti.
h.   Heteroskedastistas untuk melihaat apakah terdapat ketidaksamaan varians dari residual satu pengamatan ke pengamatan yang lain.
i.     Heteroskedastistas muncul karena adanya kesalahan atau residual dari model yang diamati tidak memiliki varian yang konstan dari satu observasi ke observasi lain.
j.     Mendeteksi masalah Heteroskedastistas dari data cross section karena masalah tersebut lebih sering muncul di cross section daripada time series.
k.   Konsekuensi adanya masalah residua tau debiasi daari garis yang paling tepat muncul serta random sesuai dengan besarnya variable-variable independen.
l.     Mutikolinearitas yaitu suatu keadaan dimana terjadi korelasi linear yang “perfect” atau eksak diantara variable penjelas yang dimasukan kedalam model.
m. Mutikolinearitas timbul karena tingkat kolinear dikatakan lemah apabila masing-masing variabole penjelas hanya mempunyai sedikit sifat-sifat yang sama.
n.   Mendeteksi masaalah Mutikolinearitas dengan menganalisis matrix korelasi dengan pearson correlation atau dengan supermans tho correation, melakukan regresi partial dengan teknik auxiliary regression atau dapat pula dilakukan dengan mengamati nilai variance inflation factor (VIF)
o.   Konsekuensi adanya masaalah Mutikolinearitas nilai koefisien regresi (b) masing – masing variable bebas dan nilai standart errornya (sb) cenderung bias, dalam arti tidak dapat ditentukan nilainya, sihingga akan berpengaruh pula terhadap nilai t.
p.   Normalitas untuk melihat apakah nilai residual terdistribusi normal atau tidak , model regresi yang baik adalah memiliki nilai residual yan terdistribusi normal.
q.   Normalitas timbul karena pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.
r.     Mendeteksi masaalh normalitas dengan menggunakan metode numberik yang membandingkan nilai statistic yaitu antara nilai median dengan nilai mean, menggunakan formula jarque bera dan mengamati sebaran data.
s.    Konsekuensi ddari adanya masalah normalitas adalah pengujian normalitas ini berdamoak pada nilai t dan F karena pengujian terthadap keduangan diturunkan dari asumsi bahwa data Y atau e berdistribusi normal.

t.     Cara menangani jika data tersebut ternyata tidak normal diperlukan upaya untuk mengatasi seperti memotong data out liers, memperbesar sampel atau melakukan transformasi data.



Komentar

Postingan populer dari blog ini

analisis biaya eksplisit dan implisit

siklus produksi

EKONOMETRIKA