BAB V UJI ASUMSI KLASIK
BAB V
UJI ASUMSI
KLASIK
Di muka telah disinggung, baik dalam
regresi linier sederhana maupun dalam regresi linier berganda, bahwa dalam
kedua regresi linier tersebut perlu memenuhi asumsi-asumsi seperti yang telah
di uraikan dalam kedua bahasan tersebut. Munculnya kewajiban untuk memenuhi
asumsi tersebut mengandung arti bahwa formula atau rumus regresi diturunkan
dari suatu asumsi tertentu. Artinya, tidak semua data dapat diperlakukan dengan
regresi. Jika data yang diregresi tidak memenuhi asumsi- asumsi yang telah
disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang bias.
Jika hasil regresi telah memenuhi asumsi-asumsi regresi maka nilai estimasi
yang diperoleh akan bersifat BLUE, yang merupakan singkatan dari: Best, Linear, Unbiased, Estimator.
Best
dimaksudkan sebagai terbaik. Untuk
memahami arti Best, perlu kembali
kepada kesadaran kita bahwa analisis regresi linier digunakan untuk
menggambarkan sebaran data dalam bentuk garis regresi. Dengan kata lain, garis
regresi merupakan cara memahami pola hubungan antara dua seri data atau lebih.
Hasil regresi dikatakan Best apabila
garis regresi yang dihasilkan guna melakukan estimasi atau peramalan dari
sebaran data, menghasilkan error yang
terkecil. Perlu diketahui bahwa error itu
sendiri adalah perbedaan antara nilai observasi dan nilai yang diramalkan oleh
garis regresi. Jika garis regresi telah Best dan disertai pula oleh kondisi tidak bias (unbiased), maka estimator regresi akan efisien.
Linear mewakili linear dalam model,
maupun linear dalam parameter. Linear dalam model artinya model yang
digunakan dalam analisis regresi telah sesuai dengan
kaidah model OLS dimana variabel-variabel penduganya hanya berpangkat satu.
Sedangkan linear dalam parameter menjelaskan bahwa parameter yang dihasilkan
merupakan fungsi linear dari sampel. Secara jelas bila diukur dengan nilai
rata-rata.
Unbiased
atau tidak bias, Suatu estimator
dikatakan unbiased jika nilai harapan
dari estimator b sama dengan nilai yang benar dari b. Artinya, nilai rata-rata
b = b. Bila rata-rata b tidak sama dengan b, maka selisihnya itu disebut dengan
bias.
Estimator yang efisien dapat ditemukan
apabila ketiga kondisi di atas telah tercapai. Karena sifat estimator yang
efisien merupakan hasil konklusi dari ketiga hal sebelumnya itu.
Asumsi-asumsi seperti yang telah
dituliskan dalam bahasan OLS di depan, adalah asumsi yang dikembangkan oleh Gauss dan Markov, yang
kemudian teori tersebut terkenal dengan sebutan Gauss-Markov Theorem. Serupa
dengan asumsi-asumsi tersebut, Gujarati (1995) merinci 10 asumsi yang menjadi
syarat penerapan yaitu:
Asumsi 1: Linear regression Model. Model regresi merupakan hubungan linear dalam parameter.
Y
= a + bX +e
Untuk model regresi Y
= a + bX + cX2 +
e Walaupun variabel X dikuadratkan, ini tetap merupakan regresi yang
linear dalam parameter sehingga OLS masih dapat diterapkan.
Asumsi 2: Nilai X adalah tetap dalam sampling yang
diulang-ulang (X fixed in repeated sampling).
Tepatnya
bahwa nilai X adalah nonstochastic
(tidak
random).
Asumsi 3: Variabel pengganggu e
memiliki rata-rata nol (zero mean of disturbance).
Artinya, garis regresi pada nilai X tertentu berada tepat di tengah. Bisa saja
terdapat error yang berada di atas
garis regresi atau di bawah garis regresi, tetapi setelah keduanya dirata-rata
harus bernilai nol.
Asumsi 4: Homoskedastisitas, atau
variabel pengganggu e memiliki variance yang
sama sepanjang observasi dari berbagai nilai X. Ini berarti data Y pada setiap
X memiliki rentangan yang sama. Jika rentangannya tidak sama, maka disebut
heteroskedastisitas
Asumsi 5: Tidak ada otokorelasi antara
variabel e pada setiap nilai xi dan ji (No
autocorrelation between the disturbance).
Asumsi 6: Variabel X dan disturbance e tidak berkorelasi. Ini
berarti kita dapat memisahkan pengaruh X atas Y dan pengaruh e atas Y. Jika X
dan e berkorelasi maka pengaruh keduanya akan tumpang tindih (sulit dipisahkan
pengaruh masing-masing atas Y). Asumsi ini pasti terpenuhi jika X adalah variabel
non random atau non stochastic.
Asumsi 7: Jumlah observasi atau besar
sampel (n) harus lebih besar dari jumlah parameter yang diestimasi. Bahkan
untuk memenuhi asumsi yang lain, sebaiknya jumlah n harus cukup besar. Jika
jumlah parameter sama atau bahkan lebih besar dari jumlah observasi, maka
persamaan regresi tidak akan bisa diestimasi.
Asumsi 8: Variabel X harus memiliki
variabilitas. Jika nilai X selalu sama sepanjang observasi maka tidak bisa
dilakukan regresi.
Asumsi 9: Model regresi secara benar
telah terspesifikasi. Artinya, tidak ada spesifikasi yang bias, karena semuanya
telah terekomendasi atau sesuai dengan teori.
Asumsi 10. Tidak ada multikolinearitas
antara variabel penjelas. Jelasnya kolinear antara variabel penjelas tidak
boleh sempurna atau tinggi.
Uji Autokorelasi
Pengertian autokorelasi
Dalam asumsi klasik telah dijelaskan
bahwa pada model OLS harus telah terbebas dari masalah autokorelasi atau serial
korelasi. Autokorelasi adalah keadaan dimana variabel gangguan pada periode
tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat
autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu
data jenis runtut waktu (time series)
ataupun data kerat silang (cross section).
Hanya saja masalah autokorelasi lebih sering muncul pada data time series, karena sifat data time series ini sendiri lekat dengan
kontinyuitas dan adanya sifat ketergantungan
antar data. Sementara pada
data cross section hal itu kecil
kemungkinan terjadi.
Sebab-sebab Autokorelasi
1. Kesalahan dalam pembentukan model, artinya, model yang
digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang
relevan dan mendukung.
2. Tidak memasukkan variabel yang penting. Variabel
penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan
mempengaruhi variabel Y. Sebagai misal kita ingin meneliti faktor apa saja yang
mempengaruhi terjadinya inflasi.
Nah, tidak dimasukkannya JUB sebagai prediktor, sangat
besar mengandung kecenderungan terjadinya autokorelasi.
3. Manipulasi data..
4. Menggunakan data yang tidak empiris
Akibat Autokorelasi
Uraian-uraian di atas mungkin saja
mengajak kita untuk bertanya tentang apa dampak dari autokorelasi yang timbul.
Pertanyaan seperti ini tentu saja merupakan sesuatu yang wajar, karena kita
tentu mempunyai pilihan apakah mengabaikan adanya autokorelasi ataukah akan
mengeliminasinya.
Meskipun ada autokorelasi, nilai
parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B
(parameter sebenarnya). Akan tetapi nilai variance
tidak minimum dan standard error (Sb1, Sb2) akan bias.
Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t
diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias
maka nilai t juga akan bias atau bersifat tidak pasti (misleading).
Pengujian Autokorelasi
Pengujian autokorelasi dimaksudkan
untuk menguji ada tidaknya autokorelasi, yaitu masalah lain yang timbul bila
kesalahan tidak sesuai dengan batasan yang disyaratkan oleh analisis regresi
A. Uji Normalitas
Tujuan dilakukannya uji normalitas
adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal
atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah
tahapan analisis regresi.
Beberapa cara dapat dilakukan untuk
melakukan uji normalitas, antara lain:
1) Menggunakan metode numerik yang membandingkan nilai
statistik, yaitu antara nilai median dengan
nilai mean. Data dikatakan normal
(simetris) jika perbandingan antara mean dan
median menghasilkan nilai yang kurang
lebih sama. Atau apabila nilai mean jika
dikurangi nilai median menghasilkan
angka nol. Cara ini disebut ukuran tendensi sentral (Kuncoro, 2001: 41).
2) Menggunakan formula Jarque Bera (JB test), yang
rumusnya tertera sebagai berikut:
S 2

(K 3)

|
|
6
dimana:
24
S
= Skewness (kemencengan) distribusi data K= Kurtosis (keruncingan)
Skewness sendiri dapat dicari dari formula sebagai
berikut:
|
E( X )3 2

Kurtosis dapat dicari dengan formula sebagai berikut:
|
E( X )4

3)
![]() |
|
Mengamati sebaran data, dengan
melakukan hitungan-hitungan berapa prosentase data observasi dan berada di area
mana. Untuk menentukan posisi normal dari sebaran data, langkah awal yang
dilakukan adalah menghitung standar deviasi. Standar deviasi dapat dicari
melalui rumus sebagai berikut:
(Dv Dv)
SD
n
Pengertian Multikolinearitas
Multikolinieritas adalah suatu keadaan
dimana terjadi korelasi linear yang ”perfect”
atau eksak di antara variabel penjelas yang dimasukkan ke dalam model.
Tingkat kekuatan hubungan antar variabel penjelas dapat ditrikotomikan lemah,
tidak berkolinear, dan sempurna. Tingkat kolinear dikatakan lemah apabila
masing-masing variabel penjelas hanya mempunyai sedikit sifat-sifat yang sama. Apabila antara variabel penjelas
memiliki banyak sifat-sifat yang sama dan serupa sehingga hampir tidak dapat
lagi dibedakan tingkat pengaruhnya terhadapY,
maka tingkat kolinearnya dapat dikatakan serius, atau perfect, atau sempurna.
Sedangkan Tidak berklinear jika antara variabel penjelas tidak mempunyai sama
sekali kesamaan.
Sebagai gambaran penjelas, dapat dilihat pada gambar berikut ini:


X1 X1
Gb.Tidak berkolinear Gb. Berkolinear lemah
![]() |
Gb.
Berkolinear sempurna
Konsekuensi Multikolinearitas
Pengujian multikolinearitas merupakan tahapan penting
yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari
masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b)
masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung
bias, dalam arti tidak dapat
ditentukan kepastian nilainya,
sehingga akan berpengaruh pula terhadap nilai t (Setiaji, 2004: 26).
Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan
bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya, karena
dari formula OLS sebagaimana dibahas terdahulu,
b1 =
1 2 2 1
2
( x y)( x 2 )
( x y)( x x )
( x 2 )( x
2 )
( x x )2
1 2 1
2
akan
menghasilkan bilangan pembagian,
b 0, sehingga
1 0

nilai b1 hasilnya tidak menentu. Hal itu akan
berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan
memperkecil nilai t.
2.
Kesimpulan
Uji asumsi klasik adalah persyaratan statistic yang
harus dipenuhi pada analisis regresi linier berganda yang berbasis Ordinary Least
Square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan
persyaratan asumsi klasik. Jika dat yang diregresi tidak memenuhi asumsi yang
telah disebutkan, maka regresi yang diterapkan akan menghasilkan estimasi yang
bias. Jika hasil regresi telah memenuhi asumsi regresi maka nilai estimasi yang
diperoleh bersifat BLUE yaitu Best, Linear, Unbiased, Estimator.
3.
Jawaban
a. Asumsi Klasik adalah persyaratan
statistic yang harus dipenuhi pada analisis regresi linier berganda yang
berbasis OLS
b. Asumsi asumsi yang ditetapkan :
-
linear regression model
-
nilai X
-
variable pengganggu e memiliki rata-rata nilai 0
-
homoskedastisitas
-
tidak ada otokorelasi antara variable e pada setiap nilai x dan j
-
variable x dan disturbance e tidak berkorelasi
-
jumlah observasi / besar sampel (n0 harus lebih besar dari jumlah parameter
yang diestimasi
-
variable x harus memiliki variabilirtas
-
model regresi secara benar telah terspesifiikasi
-
tidak ada multikolinearitas antara variable penjelas
c. Karena penyimpangan masing masing
asumsi tidak mempunyai dampak yang sama terhadap regresi.
d. Autokorelasi untuk melihat terjadinya
korelasi antara suatu periode t dengan sebelumnya (t-1). Secara sederhana bahwa
analisis regresi adalah untuk melihat pengaruh antar variable bebas terhadap
variable terikat, jadi tidak boleh ada korelasi antar observasi dengan data
observasi sebelumnya.
e. Autokoerlasi timbul karena
terdapat gangguan autokorelasi pada model regresi yang diteliti baik itu data
jenis waktu ataupun data karet silang.
f. Mendeteksi autokorelasi dengan
danya ketergantunga atau kesalahan pengganggu yan gsecara otomatis mempengaruhi
data berikutnya.
g. Konsekuensi adanya masalah autokorelasi
dalam model yaitu nilai t hitung akan menjadi bias karena niolai t diperoleh
dari hasil bagi Sb terhadap b. berhubung nilai Sb bias maka nilai t juga akan
bias atau bersifat tidak pasti.
h. Heteroskedastistas untuk melihaat
apakah terdapat ketidaksamaan varians dari residual satu pengamatan ke
pengamatan yang lain.
i. Heteroskedastistas muncul
karena adanya kesalahan atau residual dari model yang diamati tidak memiliki
varian yang konstan dari satu observasi ke observasi lain.
j. Mendeteksi masalah
Heteroskedastistas dari data cross section karena masalah tersebut lebih sering
muncul di cross section daripada time series.
k. Konsekuensi adanya masalah residua tau
debiasi daari garis yang paling tepat muncul serta random sesuai dengan
besarnya variable-variable independen.
l. Mutikolinearitas yaitu
suatu keadaan dimana terjadi korelasi linear yang “perfect” atau eksak diantara
variable penjelas yang dimasukan kedalam model.
m. Mutikolinearitas timbul karena tingkat kolinear
dikatakan lemah apabila masing-masing variabole penjelas hanya mempunyai
sedikit sifat-sifat yang sama.
n. Mendeteksi masaalah Mutikolinearitas
dengan menganalisis matrix korelasi dengan pearson correlation atau dengan
supermans tho correation, melakukan regresi partial dengan teknik auxiliary
regression atau dapat pula dilakukan dengan mengamati nilai variance inflation
factor (VIF)
o. Konsekuensi adanya masaalah
Mutikolinearitas nilai koefisien regresi (b) masing – masing variable bebas dan
nilai standart errornya (sb) cenderung bias, dalam arti tidak dapat ditentukan
nilainya, sihingga akan berpengaruh pula terhadap nilai t.
p. Normalitas untuk melihat apakah nilai
residual terdistribusi normal atau tidak , model regresi yang baik adalah
memiliki nilai residual yan terdistribusi normal.
q. Normalitas timbul karena pengujian
normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis
regresi.
r. Mendeteksi masaalh
normalitas dengan menggunakan metode numberik yang membandingkan nilai
statistic yaitu antara nilai median dengan nilai mean, menggunakan formula
jarque bera dan mengamati sebaran data.
s. Konsekuensi ddari adanya masalah
normalitas adalah pengujian normalitas ini berdamoak pada nilai t dan F karena
pengujian terthadap keduangan diturunkan dari asumsi bahwa data Y atau e
berdistribusi normal.
t. Cara menangani jika data
tersebut ternyata tidak normal diperlukan upaya untuk mengatasi seperti
memotong data out liers, memperbesar sampel atau melakukan transformasi data.
Komentar
Posting Komentar