Uji asumsi klasik juga tidak perlu dilakukan untuk analisis
regresi linear yang bertujuan untuk menghitung nilai pada variabel tertentu.
Misalnya nilai return saham yang dihitung dengan market model, atau market
adjusted model. Perhitungan nilai return yang diharapkan dilakukan dengan
persamaan regresi, tetapi tidak perlu diuji asumsi klasik.
Setidaknya ada lima uji asumsi klasik, yaitu uji
multikolinearitas, uji heteroskedastisitas, uji normalitas, uji autokorelasi
dan uji linearitas. Tidak ada ketentuan yang pasti tentang urutan uji mana dulu
yang harus dipenuhi. Analisis dapat dilakukan tergantung pada data yang ada.
Sebagai contoh, dilakukan analisis terhadap semua uji asumsi klasik, lalu
dilihat mana yang tidak memenuhi persyaratan. Kemudian dilakukan perbaikan pada
uji tersebut, dan setelah memenuhi persyaratan, dilakukan pengujian pada uji
yang lain.1. Uji Normalitas
Uji normalitas adalah untuk melihat apakah nilai residual
terdistribusi normal atau tidak. Model regresi yang baik adalah memiliki nilai
residual yang terdistribusi normal. Jadi uji normalitas bukan dilakukan pada
masing-masing variabel tetapi pada nilai residualnya. Sering terjadi kesalahan
yang jamak yaitu bahwa uji normalitas dilakukan pada masing-masing variabel.
Hal ini tidak dilarang tetapi model regresi memerlukan normalitas pada nilai
residualnya bukan pada masing-masing variabel penelitian.
Uji normalitas adalah uji yang dilakukan untuk mengecek
apakah data penelitian kita berasal dari populasi yang sebarannya normal. Uji
ini perlu dilakukan karena semua perhitungan statistik parametrik memiliki
asumsi normalitas sebaran. Rumus yang digunakan untuk melakukan suatu uji
(t-test misalnya) dibuat dengan mengasumsikan bahwa data yang akan dianalisis
berasal dari populasi yang sebarannya normal. Data yang normal memiliki
kekhasan seperti mean, median dan modusnya memiliki nilai yang sama. Selain itu
juga data normal memiliki bentuk kurva yang sama, bell curve.
Variabel pengganggu e dari suatu regresi disyaratkan
berdistribusi normal. Hal ini untuk memenuhi asumsi zero mean. Jika variabel e berdistribusi normal, maka variabel yang
diteliti Y juga berdistribusi normal. Untuk menguji normalitas e, dapat
digunakan formula Jarqu Berra (JB
test).(http://www.damandiri.or.id/file/samsudiunmuhsolobab4.pdf)
Uji normalitas dapat dilakukan dengan uji histogram, uji
normal P Plot dan Kurtosis
atau uji Kolmogorov Smirnov. Tidak ada metode yang paling baik atau paling
tepat. Tipsnya adalah bahwa pengujian dengan metode grafik sering menimbulkan
perbedaan persepsi di antara beberapa pengamat, sehingga penggunaan uji
normalitas dengan uji statistik bebas dari keragu-raguan, meskipun tidak ada
jaminan bahwa pengujian dengan uji statistik lebih baik dari pada pengujian
dengan metode grafik.
2. Uji Multikolinearitas
Multikolinearitas adalah kondisi terdapatnya hubungan linier
atau korelasi yang tinggi antara masing-masing variabel independen dalam model
regresi. Multikolinearitas biasanya terjadi ketika sebagian besar variabel yang
digunakan saling terkait dalam suatu model regresi. Oleh karena itu masalah
multikolinearitas tidak terjadi pada regresi linier sederhana yang hanya
melibatkan satu variable independen. Indikasi terdapat masalah
multikolinearitas dapat kita lihat dari kasus-kasus sebagai berikut: Nilai R2
yang tinggi (signifikan), namun nilai standar error dan tingkat signifikansi
masing-masing variabel sangat rendah. Perubahan kecil sekalipun pada data akan menyebabkan perubahan signifikan
pada variabel yang diamati
Memang belum ada kriteria yang jelas dalam mendeteksi
masalah multikolinearitas dalam model regresi linier. Selain itu hubungan
korelasi yang tinggi belum tentu berimplikasi terhadap masalah
multikolinearitas. Tetapi kita dapat melihat indikasi multikolinearitas dengan
tolerance value dan yang paling umum digunakan adalah varians inflation faktor
(VIF).
Hingga saat ini tidak ada kriteria formal untuk menentukan
batas terendah dari nilai toleransi atau VIF. Berikut ini merupakan syarat data
penelitian dikatakan terjadi multikolonieritas atau tidak (Ghozali, 2011):
1. Tolerance value < 0,10 dan VIF
> 10 maka terjadi multikolinearitas atau terdapat korelasi antar variabel
independen.
2. Tolerance value > 0,10 dan VIF
< 10 maka tidak terjadi multikolinearitas atau tidak
terdapat korelasi antar variabel
multikolinearitas adalah untuk melihat ada atau tidaknya
korelasi (keterkaitan) yang tinggi antara variabel-variabel bebas dalam suatu
model regresi linear berganda. Jika ada korelasi yang tinggi di antara
variabel-variabel bebasnya, maka hubungan antara variabel bebas terhadap
variabel terikatnya menjadi terganggu. Sebagai ilustrasi, adalah model regresi
dengan variabel bebasnya motivasi, kepemimpinan dan kepuasan kerja dengan
variabel terikatnya adalah kinerja. Logika sederhananya adalah bahwa model
tersebut untuk mencari pengaruh antara motivasi, kepemimpinan dan kepuasan
kerja terhadap kinerja. Jadi tidak boleh ada korelasi yang tinggi antara
motivasi dengan kepemimpinan, motivasi dengan kepuasan kerja atau antara kepemimpinan
dengan kepuasan kerja.
Beberapa alternatif cara untuk mengatasi masalah
multikolinearitas adalah sebagai berikut:
1. Mengganti atau mengeluarkan variabel
yang mempunyai korelasi yang tinggi.
2. Menambah jumlah observasi.
3. Mentransformasikan data ke dalam
bentuk lain, misalnya logaritma natural, akar kuadrat atau bentuk first
difference delta.
4. Dalam tingkat lanjut dapat digunakan
metode regresi bayesian yang masih jarang sekali digunakan.
Pengujian multikolinearitas juga
sering disebut uji independensi. Pengujian ini akan melihat apakah antara
sesama prediktor memiliki hubungan yang besar atau tidak. Jika hubungan antara
sesama prediktor kuat maka antara prediktor tersebut tidak independen.
Faktor-faktor
yang Mempengaruhi Multikolinearitas
a.
Metode pengumpulan data yang digunakan
b.
Batasan yang ada pada model atau populasi yang diambil
sampelnya
c.
Spesifikasi model
d.
Model yang “overdetermined”
Deteksi
Multikolinearitas
Ø
tinggi tetapi sedikit rasio t signifikan
Ø Korelasi berpasangan yang tinggi
diantara variabel-variabel penjelas
Ø Pengujian korelasi parsial
Ø Regresi subside atau tambahan
Apakah
Multikolinearitas Bisa Dianggap Hal yang Buruk?
Jawaban tersebut adalah tergantung
kepada tujuan pembelajaran. Jika tujuan pembelajaran adalah menggunakan model
untuk memprediksi atau meramalkan nilai rata-rata masa depan variabel tidak
bebas, kolinearitas menurut teori mungkin tidak jelek.
Disisi lain, jika tujuan
pembelajaran tidak hanya prediksi tetapi juga estimasi yang bias dihandalkan
atau parameter-parameter individual model yang dipilih, maka kolinearitas yang
serius mungkin buruk karena akan membawa kesalahan standar estimasi yang besar.
Apa
yang Perlu Dilakukan dengan Multikolinearitas: Langkah Perbaikan
a. Tidak melakukan apapun
b. Prosedur peraturan baku:
Ø Mengeluarkan variabel dari model
Ø Memperoleh data tambahan atau Sampel
baru
Ø Mengkaji ulang modelnya
Ø Informasi sebelumnya tentang
Parameter
Ø Transformasi variabel
Ø Langkah perbaikan yang lainnya
3. Uji
Heteroskedastisitas
Uji heteroskedastisitas adalah untuk
melihat apakah terdapat ketidaksamaan varians dari residual satu ke pengamatan
ke pengamatan yang lain. Model regresi yang memenuhi persyaratan adalah di mana
terdapat kesamaan varians dari residual satu pengamatan ke pengamatan yang lain
tetap atau disebut homoskedastisitas.
Uji heteroskedastisitas bertujuan
untuk menguji apakah dalam model regresi terjadi ketidaksamaan varians dan
residual satu pengamatan ke pengamatan yang lain. Jika varians dari residual
satu pengamatan ke pengamatan yang lain tetap, maka disebut homoskedastisitas
dan jika berbeda disebut heteroskedastisitas. Model regresi yang baik adalah
yang homoskedastisitas atau tidak terjadi heteroskedastisitas.
Uji heteroskedastisitas dilakukan
dengan menggunakan uji Glejser, yang dilakukan dengan meregresikan nilai absolut
residual yang diperoleh dari model regresi sebagai variabel dependen terhadap
semua variabel independen dalam model regresi. Apabila nilai koefisien regresi
dari masing-masing variabel bebas dalam model regresi ini tidak signifikan
secara statistik, maka dapat disimpulkan tidak terjadi heteroskedastisitas.
Deteksi heteroskedastisitas dapat
dilakukan dengan metode scatter plot dengan memplotkan nilai ZPRED (nilai
prediksi) dengan SRESID (nilai residualnya). Model yang baik didapatkan jika
tidak terdapat pola tertentu pada grafik, seperti mengumpul di tengah,
menyempit kemudian melebar atau sebaliknya melebar kemudian menyempit. Uji
statistik yang dapat digunakan adalah uji Glejser, uji Park atau uji White.
Beberapa alternatif solusi jika
model menyalahi asumsi heteroskedastisitas adalah dengan mentransformasikan ke
dalam bentuk logaritma, yang hanya dapat dilakukan jika semua data bernilai
positif. Atau dapat juga dilakukan dengan membagi semua variabel dengan
variabel yang mengalami gangguan heteroskedastisitas.
Sifat
Heteroskedastisitas
Bahwa heteroskedastisitas biasanya
ditemukan dalam data lintas sektoral dan bukan dalam data deret berkala. Dalam
data lintas sektoral umumnya dihadapkan dengan anggota suatu populasi pada
waktu tertentu.
Pendeteksian
Heteroskedastisitas
Meskipun secara teoritis pencatatan
konsekuensi heteroskedastisitas mudah dilakukan, sering kali deteksinya dalam
situasi konkret bukan hal yang mudah. Ini bisa dimengerti karena
bisa dikenali hanya jika kita memiliki
seluruh populasi Y.
a. Metode Informal
Ø Sifat Alamiah problem
Sifat masalah sering kali terkait
dengan ada tidaknya heteroskedastisitas. Dalam lintas data sektoral yang
melibatkan unit-unit heterogen, heteroskedastisitas mungkin cenderung dijadikan
aturan ketimbang pengecualian.
Ø Metode Grafis
Dalam analisis regresi terapan,
pengujian residu yang didapatkan dari persamaan regresi yang digunakan selalau
merupakan praktik yang baik. Residu-residu ini bias dipetakan terhadap
observasinya sendiri atau terhadap satu variabel penjelas atau lebih atau
terhadap
nilai
mean taksiran
Plot residu seperti ini sering member petunjuk
tentang apakah satu asumsi atau lebih dari CLRM berlaku atau tidak.
b. Metode Formal
Ø Uji Park
ln
Langkah-langkah:
1. Kerjakan regresi asal terlepas dari
adanya masalah heteroskedastiisitas
2. Dari regresi ini, dapatkan residu
kuadratkan, dan hitung nilai log-nya
3. Kerjakan regresi dengan menggunakan
variabel penjelas dalam model asal
4. Tes hipotesis nol bahwa
yakni tidak ada heteroskedastisitas
5. Jika hipotesis 0 tidak ditolak maka
dalam
regresi dapat memberikan nilai varians umum atau homoskedastis
.
Ø Uji Glejser
Mirip dengan Uji Park. Setelah
mendapatkan residu
dari model asal, Glejser mempertimbangkan
regresi nilai absolut
terhadap variabel X yang dianggap berhubungan dekat dengan varians
heteroskedastisitas
.
Ø Uji Heteroskedastisitas Umum White
=
1. Mula-mula estimasi regresi
2. Lalu kerjakan regresi pelengkap
=
3. Tentukan nilai
dari regresi pelengkap
n.
4. Jika nilai kai-kuadrat yang diperoleh
dari persamaan n.
melebihi jilai kai-kuadrat kritis pada tingkat
signifikasi yang dipilih, atau jika nilai p
nilai kai-kuadrat yang dihitung cukup rendah berarti bias menolak hipotesis 0
tentang tidak adanya heteriskadtisitas.
Ø Uji Heteroskedastisitas Lainnya
1. Uji korelasi peringkat Spearman
2. Uji Goldfeld-Quandt
3. Uji homogenitas varians Bartlett
4. Uji Peak
5. Uji Breusch-Pagan
6. Uji CUSUMSQ
Apa yang harus Dilakukan Bila
Ditemukan Adanya Heteroskedastisitas: Langkah Perbaikan
Ø
Ketika
diketahui: Metode Kuadrat Terkecil Tertimbang
(Weight Least Squares/ WLS)
Ø
Ketika
yang sebenarnya tidak diketahui
Ø
Respesifikasi model
4. Uji Autokorelasi
Uji autokorelasi digunakan untuk
melihat apakah ada hubungan linear antara error serangkaian observasi yang
diurutkan menurut waktu (data time series).
Uji autokorelasi perlu dilakukan apabila data yang dianalisis merupakan data
time series (Gujarati, 1993 Nilai Durbin Watson kemudian dibandingkan dengan
nilai d-tabel. Hasil perbandingan akan menghasilkan kesimpulan seperti kriteria
sebagai berikut: Jika d < dl, berarti terdapat autokorelasi positif. Jika d
> (4 – dl), berarti terdapat autokorelasi negative. Jika du < d < (4 –
dl), berarti tidak terdapat autokorelasi. Jika dl < d < du atau (4 – du),
berarti tidak dapat disimpulkan.
Uji autokorelasi adalah untuk
melihat apakah terjadi korelasi antara suatu periode t dengan periode
sebelumnya (t -1). Secara sederhana adalah bahwa analisis regresi adalah untuk
melihat pengaruh antara variabel bebas terhadap variabel terikat, jadi tidak
boleh ada korelasi antara observasi dengan data observasi sebelumnya. Sebagai
contoh adalah pengaruh antara tingkat inflasi bulanan terhadap nilai tukar
rupiah terhadap dollar. Data tingkat inflasi pada bulan tertentu, katakanlah
bulan Februari, akan dipengaruhi oleh tingkat inflasi bulan Januari. Berarti
terdapat gangguan autokorelasi pada model tersebut. Contoh lain, pengeluaran
rutin dalam suatu rumah tangga. Ketika pada bulan Januari suatu keluarga
mengeluarkan belanja bulanan yang relatif tinggi, maka tanpa ada pengaruh dari
apapun, pengeluaran pada bulan Februari akan rendah.
Uji autokorelasi hanya dilakukan
pada data time series (runtut waktu) dan tidak perlu dilakukan pada data cross
section seperti pada kuesioner di mana pengukuran semua variabel dilakukan
secara serempak pada saat yang bersamaan. Model regresi pada penelitian di
Bursa Efek Indonesia di mana periodenya lebih dari satu tahun biasanya
memerlukan uji autokorelasi.
Beberapa uji statistik yang sering
dipergunakan adalah uji Durbin-Watson, uji dengan Run Test dan jika data
observasi di atas 100 data sebaiknya menggunakan uji Lagrange Multiplier.
Beberapa cara untuk menanggulangi masalah autokorelasi adalah dengan
mentransformasikan data atau bisa juga dengan mengubah model regresi ke dalam
bentuk persamaan beda umum (generalized difference equation). Selain itu juga
dapat dilakukan dengan memasukkan variabel lag dari variabel terikatnya menjadi
salah satu variabel bebas, sehingga data observasi menjadi berkurang 1.
Sifat
Otokorelasi
Otokorelasi biasanya berhubungan
erat dengan deret berkala (data yang diurutkan dalam urutan kronologis)
meskipun seperti ditunjukkan definisi sebelumnya, otokorelasi bias pula terjadi
dalam data lintas sektoral. Dalam hal ini, otokorelasi ini disebut korelasi
ruang (spatial correlation yaitu
korelasi dalam ruang dan bukan dalam waktu).
Penyebab
Otokorelasi
Ø Inersia (kelembaman)
Ø Kesalahan (-Kesalahan) Spesifikasi
Model
Ø Fenomena Sarang Laba-laba
Ø Manipulasi Data
Konsekuensi
Otokorelasi
Ø Estimator kuadrat terkecil masih
linear dan tidak bias
Ø Tapi estimator tersebut tidak
efisien, artinya tidak memiliki varians minimum bila dibandingkandengan
prosedur yang mempertimbangkan otokorelasi
Ø Varians taksiran dari estimator OLS
bersifat bias
Ø Oleh sebab itu, tes t dan F yang biasa umumnya tidak handal
Ø Rumusan umum untuk menghitung varian
kesalahan yakni
= RSS/df (jumlah residu/derajat kebebasan)
merupakan estimator bias dari
yang sebenarnya dan dalam sejumlah kasus
cenderung mengestimasi F terlalu
rendah
Ø Konsekuansinya
yang dihitung secara konvensional mungkin
adalah ukuran
sesungguhnya tidak bias dihandalkan
Ø Varians dan kesalahan standar
peramalan yang dhitung secara konvensional mungkin juga tidak efisien
Pendeteksian
Otokorelasi
a. Metode Informal
Ø Metode Grafis
Pengujian visual sederhana residu
OLS , e, bias memberikn wawasan
berharga bagi kita tentang kemungkinan keberadaan otokorelasi diantara
faktor-faktor kesalahan u.
b. Metode Formal
Ø Uji d Durbin Watson
Statistik d Durbin-Watson :
Asumsi-asumsi yang mendasari
statistik d:
1. Model regresi meliputi faktor titik
potong
2. Variabel-variabel X
bersifat nonstokhastik artinya nilai tetap dalam pengembaliam sampel
berulang
3. Gangguan
dihasilkan dengan mekanisme
=
ρ
+
-1 ≤ ρ ≤ 1
4. Regresi tidak mengandung nilai
(-nilai) masa lalu variabel tidak bebas sebagai salah satu variabel penjelas
Langkah
Perbaikan
Menggunakan transformasi
Prais-Winsten
Bagaimana
Mengestimasi ρ
Ø ρ = 1 Metode Selisih Pertama
Ø ρ yang Diestimasi dari d Statistik Durbin_Watson
Ø ρ yang Diestimasi dari Residu OLS,
Ø Metode estimasi lainnya
a. Prosedur berulang Cochrane-Orcutt
b. Metode 2 Langkah Cochrane-Orcutt
c. Metode 2 Langkah Durbin
d. Prosedur Pencarian Hildreth-Lu
e. Metode Kemiripan Maksimum
5.
Uji Linearitas
Uji linearitas dipergunakan untuk
melihat apakah model yang dibangun mempunyai hubungan linear atau tidak. Uji
ini jarang digunakan pada berbagai penelitian, karena biasanya model dibentuk
berdasarkan telaah teoretis bahwa hubungan antara variabel bebas dengan
variabel terikatnya adalah linear. Hubungan antar variabel yang secara teori
bukan merupakan hubungan linear sebenarnya sudah tidak dapat dianalisis dengan
regresi linear, misalnya masalah elastisitas.
Jika ada hubungan antara dua
variabel yang belum diketahui apakah linear atau tidak, uji linearitas tidak
dapat digunakan untuk memberikan adjustment bahwa hubungan tersebut bersifat
linear atau tidak. Uji linearitas digunakan untuk mengkonfirmasikan apakah
sifat linear antara dua variabel yang diidentifikasikan secara teori sesuai
atau tidak dengan hasil observasi yang ada. Uji linearitas dapat menggunakan
uji Durbin-Watson, Ramsey Test atau uji Lagrange Multiplier.
Tidak ada komentar:
Posting Komentar