Nama
: Nurul Husaidah
NPM : 25216622
Kelas : 2EB07
Soal
- Jawab
1.
Apakah sebab-sebab Autokorelasi ?
Penyebab autokorelasi antara lain adalah :





2.
Faktor-faktor yang dapat menyebabkan timbulnya masalah
Autokolerasi !
Terdapat banyak
faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, beberap faktor tersebut antara lain :
·
Kesalahan dalam pembentukan model, artinya, model yang
digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang
relevan dan mendukung.
·
Tidak memasukkan variabel yang penting. Variabel penting
yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan
mempengaruhi variabel Y.
·
Manipulasi data. Misalnya dalam penelitian kita ingin
menggunakan data bulanan, namun data tersebut tidak tersedia. Kemudian kita
mencoba menggunakan triwulanan yang tersedia, untuk dijadikan data bulanan
melalui cara interpolasi atau ekstrapolasi.
·
Menggunakan data yang tidak empiris. Jika data semacam
ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita.
3.
Apakah yang dimaksud pengujian Autokolerasi ?
Uji
Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk
mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan
perubahan waktu.
4.
Dalam uji Durbin-Watson (DW-Test). Terdapat beberapa
asumsi penting yang harus dipatuhi, Apakah itu
?
o
Terdapat intercept dalam model regresi.
o
Variabel penjelasnya tidak random ( nonstochastics ).
o
Tidak ada unsur lag dari variabel dependen di dalam
model.
o
Tidak ada data yang hilang.
o
υ = ρυ + ε t t − 1 t
5.
Coba jelaskan apa yang dimaksud Asumsi Klasik !
Uji asumsi klasik
adalah persyaratan statistik yang harus dipenuhi pada analisis
regresi linear berganda yang berbasis ordinary least square (OLS). Jadi
analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi
klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak
semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya
uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana
dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.
6.
Sebutkan apa saja Asumsi - Asumsi yang ditetapkan
!
·
Asumsi 1
: linear
regresion Model. Model regresi merupakan hubungan linear dalam parameter.
·
Asumsi 2 : Nilai X adalah tetap dalam sampling yang
diulang – ulang
·
Asumsi 3 : Variabel penggangu e memiliki rata –rata nol
·
Asumsi
4 : Homoskedastisitas atau variabel
penggangu e memiliki variance yang sama sepanjang observasi dari berbagai nilai
X.
·
Asumsi 5 : Tidak ada autokorelasi antara variabel e pada
setiap nilai xi dan ji
·
Asumsi 6 : Variabel X dan disturbance e tidak
berkorelasi.
·
Asumsi 7 : Jumlah observasi / besar sample (n) harus
lebih besar dari jumlah parameter yang diestimasi.
·
Asumsi 8 : Variabel X harus memiliki variabilitas.
·
Asumsi 9 : Model regresi secara benar telah
terspesifikasi.
·
Asumsi 10 : Tidak ada multikolinearitas antara variabel
penjelas.
7.
Coba jelaskan mengapa tidak semua Asumsi perlu lakukan pengujian !
Tidak semua uji asumsi
klasik harus dilakukan pada analisis regresi linear, seperti: pengujian asumsi Multikolinearitas
tidak harus dilakukan pada analisis regresi linear sederhana yang memiliki
variabel respon dan prediktor hanya satu. Secara teoretis model OLS akan menghasilkan estimasi nilai
parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada
Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada
Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi
maka akan menghasilkan hasil regresi yang best, linear, unbias, efficient of
estimation (BLUE).
8.
Jelaskan apa yang dimaksud dengan Autokolerasi !
Autokorelasi adalah
keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan
variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat
korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time
series) ataupun data kerat silang (cross section).
9.
Jelaskan kenapa Autokolerasi timbul !
Pada pengujian asumsi autokorelasi ini,
diharapkan asumsi Autokorelasi tidak terpenuhi. Tetapi terkadang dalam suatu
penelitian terjadi autokorelasi. Penyebab terjadinya autokorelasi ini adalah :
o
Kesalahan
dalam pembentukan model, artinya, model yang digunakan untuk menganalisis
regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
o
Tidak
memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini
adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
o
Manipulasi
data penelitian.
o
Menggunakan
data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data
tersebut tidak didukung oleh realita.
10. Bagaimana
cara mendeteksi masalah Autokolerasi
?
Berikut ini merupakan cara-cara mengidentifikasi adanya kasus
Autokorelasi :
o
Pengujian Durbin-Watson
yang menguji adanya autokorelasi pada lag-1. Pada Tabel Durbin-Watson[4] diperoleh Output Tabel, yaitu
nilai Durbin-Watson batas bawah (dL) dan batas atas (dU).
Kriteria pemeriksaan asumsi
Autokorelasi residual menggunakan Nilai Durbin-Watson (d), yaitu:
·
Jika d < 2 dan d < dL , maka
residual bersifat autokorelasi positif.
·
Jika d < 2 dan d > dU , maka
residual tidak bersifat autokorelasi.
·
Jika d < 2 dan dL
≤ d ≤ dU , maka hasil pengujian tidak dapat
disimpulkan.
·
Jika d > 2 dan 4 – d < dL ,
maka residual bersifat autokorelasi negatif.
·
Jika d > 2 dan 4
– d > dU , maka residual tidak bersifat
autokorelasi.
·
Jika d > 2 dan dL
≤ 4 – d ≤ dU , maka hasil pengujian tidak dapat
disimpulkan.
o
Pengujian Autocorrelation
Function (ACF) yang menguji adanya autokorelasi pada lag-1, lag-2,
lag-3, dan seterusnya. Pada uji ACF, kasus autokorelasi terjadi ketika ada lag
pada plot ACF yang keluar batas signifikansi (margin error).
o
Pengujian Autokorelasi
lainnya, seperti: Uji Breusch-Godfrey dan Uji Ljung-Box (gunakan
software EVIEWS).
11. Apa
konsekuensi dari adanya masalah Autokolerasi dalam Model ?
Meskipun ada autokorelasi, nilai
parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias
dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak
minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai
t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb
terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau
bersifat tidak pasti (misleading).
12. Jelaskan
apa yang dimaksud dengan Heteroskidastisitas !
Heteroskedatisitas adalah asumsi residual dari
model regresi yang memiliki varian tidak konstan. Pada pemeriksaan ini,
diharapkan asumsi Heteroskedatisitas tidak terpenuhi karena model regresi
linier berganda memiliki asumsi varian residual yang konstan
(Homoskedatisitas). Heteroskedastisitas
muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki
varians yang konstan dari satu observasi ke observasi lainnya.
13. Jelaskan
kenapa Heteroskedastisitas
timbul
!
Penyebab terjadinya kasus heteroskedatisitas
adalah :
o
Terdapat kesalahan input
komponen/nilai variabel respon pada beberapa prediktor, sehingga pada
komponen prediktor yang berbeda memiliki komponen variabel respon yang sama.
o
Kasus Heteroskedatisitas terjadi
secara alami pada variabel-variabel ekonomi.
o
Terdapat pengaruh Heteroskedatisitas pada data time series yang umum terjadi pada variabel-variabel
ekonomi yang memiliki volatilitas.
o
Adanya Manipulasi Data
yang menyebabkan residual data memiliki varian yang sistematik.
14. Bagaimana
cara mendeteksi masalah Heteroskedastisitas ?
Berikut diberikan cara-cara mengidentifikasi adanya
kasus Heteroskedatisitas :

·
Pemeriksaan output scatter plot dari variabel respon (y)
pada sumbu-Y dengan masing-masing variabel prediktornya (X) pada
sumbu-X.
·
Pemeriksaan output scatter plot dari variabel residual (e)
pada sumbu-Y dengan variabel prediksi respon (y-hat) pada sumbu-X.
·
Pemeriksaan output scatter plot dari variabel residual (e)
pada sumbu-Y dengan masing-masing variabel prediktornya (X) pada
sumbu-X.

15. Apa
konsekuensi dari adanya masalah Heteroskedastisitas dalam model ?
Munculnya masalah heteroskedastisitas yang mengakibatkan
nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi
tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b
dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini
akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena
Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka
nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan
menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil
riset yang mengacaukan.
16. Jelaskan
apa yang dimaksud dengan Multikolinfaritas !
Multikolinearitas adalah asumsi yang menunjukkan
adanya hubungan linear yang kuat diantara beberapa variabel prediktor dalam
suatu model regresi linear berganda. Model regresi yang baik memiliki
variabel-variabel prediktor yang independen atau tidak berkorelasi. Pada
pengujian asumsi ini, diharapkan asumsi Multikolinieritas tidak terpenuhi.
17. Jelaskan
kenapa Multikolinfaritas timbul
!
Penyebab terjadinya kasus Multikolinieritas
adalah terdapat korelasi atau hubungan linear yang kuat diantara beberapa
variabel prediktor yang dimasukkan kedalam model regresi, seperti:
variabel-variabel ekonomi yang kebanyakan terkait satu dengan yang lain (intercorrelation).
18. Bagaimana
cara mendeteksi masalah Multikolinfaritas ?
a. Menghitung dan menguji koefisien korelasi diantara
variabel-variabel prediktor. Terjadi kasus Multikolinieritas ketika terdapat
korelasi yang kuat (atau signifikan) diantara variabel-variabel prediktor.
b. Mengecek nilai standard error dari masing-masing
koefisien regresi [se(β)]. Kasus Multikolinieritas biasanya terjadi ketika
nilai standard error dari koefisien regresi membesar, sehingga hasil ini akan
cenderung menerima H0 (menyimpulkan bahwa koefisien regresi tidak
signifikan) pada pengujian signifikansi parameter/koefisien regresi. Hal ini
dapat terjadi, meskipun nilai koefisien regresinya tidak mendekati nol.
c. Menjumpai adanya output
pengujian serentak koefisien regresi atau Uji ANOVA atau Uji F yang signifikan, tetapi output
pengujian parsial koefisien regresi atau Uji t dari masing-masing variabel prediktor tidak ada yang signifikan.
d.
Membandingkan output koefisien
regresi dengan koefisien korelasi antara variabel respon dan prediktor. Pertama, kasus Multikolinieritas
biasanya terjadi ketika terdapat perubahan hasil pengujian signifikansi pada
koefisien regresi dan koefisien korelasi. Kedua, terjadi kasus Multikolinieritas ketika terdapat perubahan
tanda koefisien (+/-) pada koefisien regresi dan koefisien korelasi.
e.
Melakukan pemeriksaan nilai Variance Inflation Factor (VIF) dari masing-masing variabel
prediktor. Kasus Multikolinieritas terjadi ketika nilai VIFj > 10.
19. Apa
konsekuensi dari adanya masalah Multikolinearitas dalam model ?
Pengujian multikolinearitas merupakan tahapan penting yang
harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari
masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b)
masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung
bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan
berpengaruh pula terhadap nilai t. Hal itu akan berdampak pula pada standar
error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t.
Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas
sempurna sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan
tidak dapat ditentukan hasilnya.
20. Jelaskan
apa yang dimaksud dengan Normalitas !
Asumsi Normalitas adalah asumsi residual yang
berdistribusi Normal. Asumsi ini harus terpenuhi untuk model regresi linear
yang baik. Uji Normalitas dilakukan pada nilai residual model regresi. Tujuan dilakukannya uji normalitas
adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal
atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah
tahapan analisis regresi.
21. Jelaskan
kenapa Normalitas timbul
!
Penyebab terjadinya kasus Normalitas adalah :


22. Bagaimana
cara mendeteksi masalah Normalitas ?
Berikut diberikan cara-cara mengidentifikasi adanya
kasus Normalitas :


·
H0 : Residual berdistribusi Normal
·
H1 : Residual tidak berdistribusi Normal
Asumsi Normalitas
terpenuhi ketika pengujian normalitas menghasilkan P-value (Sign.) lebih besar
dari α dengan nilai α ditentukan sebesar 1%, 5%, atau 10%.
23. Apa
konsekuensi dari adanya masalah Normalitas dalam Model ?
Uji normalitas bertujuan untuk menguji apakah dalam model
regresi, variabel penggangu atau residual memiliki distribusi normal.
Jika asumsi ini dilanggar, maka uji statistik menjadi tidak valid atau bias
terutama untuk sampel kecil. Uji normalitas dapat dilakukan melalui dua
pendekatan yaitu melalui pendekatan grafik (histogram dan P-P Plot) atau uji
kolmogorov-smirnov, chi-square, Liliefors maupun Shapiro-Wilk.
24. Bagaimana cara menangani jika data
ternyata tidak normal ?


