Sabtu, 07 Juli 2018

Vclass Statistika 2 Minggu 13


Nama        : Nurul Husaidah
NPM         : 25216622
Kelas         : 2EB07

Soal - Jawab

1.      Apakah sebab-sebab Autokorelasi ?

Penyebab autokorelasi antara lain adalah :
*      Inersia Salah satu ciri menonjol dari sebagian deretan waktu ekonomi adalah inersia atau kelembaman. Seperti telah dikenal dengan baik, deretan waktu seperti GNP. Indeks Harga, produksi, kesempatan kerja dan pengangguran menunjukkan pola siklus. Dalam kasus-kasus tersebut observasi yang berurutan nampaknya saling bergantungan.

*      Bias spesisifikasi mengeluarkan variabel yang relevan dari model.

*      Bias spesifikasi karena bentuk fungsional yang tidak benar.

*      Fenomena Cobweb Penawaran banyak komoditi pertanian mencerminkan apa yang disebut “Fenomena Cobweb” di mana penawaran bereaksi terhadap harga dengan keterlambatannya satu periode waktu karena keputusan penawaran memerlukan waktu untuk penawarannya (periode persiapan) jadi pada awal musim tanam tahun ini pertanian dipengaruhi oleh harga yang terjadi tahun lalu.

*      Manipulasi data Dalam analisis empiris, data kasar seringkali “dimanipulasikan”. Sebagai contoh, dalam regresi daretan waktu yang melibatkan data kuartalan, data seperti itu biasanya diperoleh dari data bulanan dengan hanya marata-ratakan 3 observasi 3 bulanan. Pemerataan-rataan ini meratakan fluktuasi dalam data bulanan dan dengan sendirinya mengakibatkan pola sistematis dalam error sehingga menyababkan autokorelasi.

2.      Faktor-faktor yang dapat menyebabkan timbulnya masalah Autokolerasi !
                                                                                                  
Terdapat banyak faktor-faktor yang dapat menyebabkan timbulnya masalah autokorelasi, beberap faktor tersebut antara lain :

·         Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
·         Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
·         Manipulasi data. Misalnya dalam penelitian kita ingin menggunakan data bulanan, namun data tersebut tidak tersedia. Kemudian kita mencoba menggunakan triwulanan yang tersedia, untuk dijadikan data bulanan melalui cara interpolasi atau ekstrapolasi.
·         Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita.

3.      Apakah yang dimaksud pengujian Autokolerasi ?

Uji Autokorelasi adalah sebuah analisis statistik yang dilakukan untuk mengetahui adakah korelasi variabel yang ada di dalam model prediksi dengan perubahan waktu.

4.      Dalam uji Durbin-Watson (DW-Test). Terdapat beberapa asumsi penting yang harus dipatuhi, Apakah itu ?

o   Terdapat intercept dalam model regresi.
o   Variabel penjelasnya tidak random ( nonstochastics ).
o   Tidak ada unsur lag dari variabel dependen di dalam model.
o   Tidak ada data yang hilang.
o   υ = ρυ + ε t t − 1 t

5.      Coba jelaskan apa yang dimaksud Asumsi Klasik !

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear berganda yang berbasis ordinary least square (OLS). Jadi analisis regresi yang tidak berdasarkan OLS tidak memerlukan persyaratan asumsi klasik, misalnya regresi logistik atau regresi ordinal. Demikian juga tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional.

6.      Sebutkan apa saja Asumsi - Asumsi yang ditetapkan !

·         Asumsi 1 : linear regresion Model. Model regresi merupakan hubungan linear dalam parameter.
·         Asumsi 2 : Nilai X adalah tetap dalam sampling yang diulang – ulang
·         Asumsi 3 : Variabel penggangu e memiliki rata –rata nol
·         Asumsi 4 : Homoskedastisitas atau variabel penggangu e memiliki variance yang sama sepanjang observasi dari berbagai nilai X.
·         Asumsi 5 : Tidak ada autokorelasi antara variabel e pada setiap nilai xi dan ji
·         Asumsi 6 : Variabel X dan disturbance e tidak berkorelasi.
·         Asumsi 7 : Jumlah observasi / besar sample (n) harus lebih besar dari jumlah parameter yang diestimasi.
·         Asumsi 8 : Variabel X harus memiliki variabilitas.
·         Asumsi 9 : Model regresi secara benar telah terspesifikasi.
·         Asumsi 10 : Tidak ada multikolinearitas antara variabel penjelas.

7.      Coba jelaskan mengapa tidak semua Asumsi perlu lakukan pengujian !

Tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, seperti: pengujian asumsi Multikolinearitas tidak harus dilakukan pada analisis regresi linear sederhana yang memiliki variabel respon dan prediktor hanya satu. Secara teoretis model OLS akan menghasilkan estimasi nilai parameter model penduga yang sahih bila dipenuhi asumsi Tidak ada Autokorelasi, Tidak Ada Multikolinearitas, dan Tidak ada Heteroskedastisitas. Apabila seluruh asumsi klasik tersebut telah terpenuhi maka akan menghasilkan hasil regresi yang best, linear, unbias, efficient of estimation (BLUE).

8.      Jelaskan apa yang dimaksud dengan Autokolerasi !

Autokorelasi adalah keadaan dimana variabel gangguan pada periode tertentu berkorelasi dengan variabel gangguan pada periode lain. Sifat autokorelasi muncul bila terdapat korelasi antara data yang diteliti, baik itu data jenis runtut waktu (time series) ataupun data kerat silang (cross section).

9.      Jelaskan kenapa Autokolerasi timbul !

Pada pengujian asumsi autokorelasi ini, diharapkan asumsi Autokorelasi tidak terpenuhi. Tetapi terkadang dalam suatu penelitian terjadi autokorelasi. Penyebab terjadinya autokorelasi ini adalah :
o   Kesalahan dalam pembentukan model, artinya, model yang digunakan untuk menganalisis regresi tidak didukung oleh teori-teori yang relevan dan mendukung.
o   Tidak memasukkan variabel yang penting. Variabel penting yang dimaksudkan di sini adalah variabel yang diperkirakan signifikan mempengaruhi variabel Y.
o   Manipulasi data penelitian.
o   Menggunakan data yang tidak empiris. Jika data semacam ini digunakan, terkesan bahwa data tersebut tidak didukung oleh realita.

10.  Bagaimana cara mendeteksi masalah Autokolerasi ?

Berikut ini merupakan cara-cara mengidentifikasi adanya kasus Autokorelasi :
o   Pengujian Durbin-Watson yang menguji adanya autokorelasi pada lag-1. Pada Tabel Durbin-Watson[4] diperoleh Output Tabel, yaitu nilai Durbin-Watson batas bawah (dL) dan batas atas (dU). Kriteria pemeriksaan asumsi Autokorelasi residual menggunakan Nilai Durbin-Watson (d), yaitu:
·         Jika d < 2 dan d < dL , maka residual bersifat autokorelasi positif.
·         Jika d < 2 dan d > dU , maka residual tidak bersifat autokorelasi.
·          Jika d < 2 dan dLddU , maka hasil pengujian tidak dapat disimpulkan.
·         Jika d > 2 dan 4 – d < dL , maka residual bersifat autokorelasi negatif.
·          Jika d > 2 dan 4 – d > dU , maka residual tidak bersifat autokorelasi.
·          Jika d > 2 dan dL ≤ 4 – ddU , maka hasil pengujian tidak dapat disimpulkan.
o   Pengujian Autocorrelation Function (ACF) yang menguji adanya autokorelasi pada lag-1, lag-2, lag-3, dan seterusnya. Pada uji ACF, kasus autokorelasi terjadi ketika ada lag pada plot ACF yang keluar batas signifikansi (margin error).
o   Pengujian Autokorelasi lainnya, seperti: Uji Breusch-Godfrey dan Uji Ljung-Box (gunakan software EVIEWS).

11.  Apa konsekuensi dari adanya masalah Autokolerasi dalam Model ?

Meskipun ada autokorelasi, nilai parameter estimator (b1, b2,…,bn) model regresi tetap linear dan tidak bias dalam memprediksi B (parameter sebenarnya). Akan tetapi nilai variance tidak minimum dan standard error (Sb1, Sb2) akan bias. Akibatnya adalah nilai t hitung akan menjadi bias pula, karena nilai t diperoleh dari hasil bagi Sb terhadap b (t = b/sb). Berhubung nilai Sb bias maka nilai t juga akan bias atau bersifat tidak pasti (misleading).

12.  Jelaskan apa yang dimaksud dengan Heteroskidastisitas !

Heteroskedatisitas adalah asumsi residual dari model regresi yang memiliki varian tidak konstan. Pada pemeriksaan ini, diharapkan asumsi Heteroskedatisitas tidak terpenuhi karena model regresi linier berganda memiliki asumsi varian residual yang konstan (Homoskedatisitas). Heteroskedastisitas muncul apabila kesalahan atau residual dari model yang diamati tidak memiliki varians yang konstan dari satu observasi ke observasi lainnya.

13.  Jelaskan kenapa Heteroskedastisitas timbul !

Penyebab terjadinya kasus heteroskedatisitas adalah :
o   Terdapat kesalahan input komponen/nilai variabel respon pada beberapa prediktor, sehingga pada komponen prediktor yang berbeda memiliki komponen variabel respon yang sama.
o   Kasus Heteroskedatisitas terjadi secara alami pada variabel-variabel ekonomi.
o   Terdapat pengaruh Heteroskedatisitas pada data time series yang umum terjadi pada variabel-variabel ekonomi yang memiliki volatilitas.
o   Adanya Manipulasi Data yang menyebabkan residual data memiliki varian yang sistematik.

14.  Bagaimana cara mendeteksi masalah Heteroskedastisitas ?

Berikut diberikan cara-cara mengidentifikasi adanya kasus Heteroskedatisitas :
*      Dilakukan pemeriksaan dengan metode Grafik, seperti:
·         Pemeriksaan output scatter plot dari variabel respon (y) pada sumbu-Y dengan masing-masing variabel prediktornya (X) pada sumbu-X.
·         Pemeriksaan output scatter plot dari variabel residual (e) pada sumbu-Y dengan variabel prediksi respon (y-hat) pada sumbu-X.
·         Pemeriksaan output scatter plot dari variabel residual (e) pada sumbu-Y dengan masing-masing variabel prediktornya (X) pada sumbu-X.
*      Dilakukan pengujian dengan metode Formal, meliputi: Uji Park, Uji Glejser, Uji Goldfeld-Quandt, Uji Breusch-Pagan/Godfrey, dan Uji White.

15.  Apa konsekuensi dari adanya masalah Heteroskedastisitas dalam model ?

Munculnya masalah heteroskedastisitas yang mengakibatkan nilai Sb menjadi bias, akan berdampak pada nilai t dan nilai F yang menjadi tidak dapat ditentukan. Karena nilai t dihasilkan dari hasil bagi antara b dengan Sb. Jika nilai Sb mengecil, maka nilai t cenderung membesar. Hal ini akan berakibat bahwa nilai t mungkin mestinya tidak signifikan, tetapi karena Sb nya bias, maka t menjadi signifikan. Sebaliknya, jika Sb membesar, maka nilai t akan mengecil. Nilai t yang seharusnya signifikan, bisa jadi ditunjukkan menjadi tidak signifikan. Ketidakmenentuan dari Sb ini dapat menjadikan hasil riset yang mengacaukan.

16.  Jelaskan apa yang dimaksud dengan Multikolinfaritas !

Multikolinearitas adalah asumsi yang menunjukkan adanya hubungan linear yang kuat diantara beberapa variabel prediktor dalam suatu model regresi linear berganda. Model regresi yang baik memiliki variabel-variabel prediktor yang independen atau tidak berkorelasi. Pada pengujian asumsi ini, diharapkan asumsi Multikolinieritas tidak terpenuhi.
17.  Jelaskan kenapa Multikolinfaritas timbul !

Penyebab terjadinya kasus Multikolinieritas adalah terdapat korelasi atau hubungan linear yang kuat diantara beberapa variabel prediktor yang dimasukkan kedalam model regresi, seperti: variabel-variabel ekonomi yang kebanyakan terkait satu dengan yang lain (intercorrelation).

18.  Bagaimana cara mendeteksi masalah Multikolinfaritas ?

a.       Menghitung dan menguji koefisien korelasi diantara variabel-variabel prediktor. Terjadi kasus Multikolinieritas ketika terdapat korelasi yang kuat (atau signifikan) diantara variabel-variabel prediktor.
b.      Mengecek nilai standard error dari masing-masing koefisien regresi [se(β)]. Kasus Multikolinieritas biasanya terjadi ketika nilai standard error dari koefisien regresi membesar, sehingga hasil ini akan cenderung menerima H0 (menyimpulkan bahwa koefisien regresi tidak signifikan) pada pengujian signifikansi parameter/koefisien regresi. Hal ini dapat terjadi, meskipun nilai koefisien regresinya tidak mendekati nol.
c.       Menjumpai adanya output pengujian serentak koefisien regresi atau Uji ANOVA atau Uji F yang signifikan, tetapi output pengujian parsial koefisien regresi atau Uji t dari masing-masing variabel prediktor tidak ada yang signifikan.
d.      Membandingkan output koefisien regresi dengan koefisien korelasi antara variabel respon dan prediktor. Pertama, kasus Multikolinieritas biasanya terjadi ketika terdapat perubahan hasil pengujian signifikansi pada koefisien regresi dan koefisien korelasi. Kedua, terjadi kasus Multikolinieritas ketika terdapat perubahan tanda koefisien (+/-) pada koefisien regresi dan koefisien korelasi.
e.       Melakukan pemeriksaan nilai Variance Inflation Factor (VIF) dari masing-masing variabel prediktor. Kasus Multikolinieritas terjadi ketika nilai VIFj > 10.

19.  Apa konsekuensi dari adanya masalah Multikolinearitas dalam model ?

Pengujian multikolinearitas merupakan tahapan penting yang harus dilakukan dalam suatu penelitian, karena apabila belum terbebas dari masalah multikolinearitas akan menyebabkan nilai koefisien regresi (b) masing-masing variabel bebas dan nilai standar error-nya (Sb) cenderung bias, dalam arti tidak dapat ditentukan kepastian nilainya, sehingga akan berpengaruh pula terhadap nilai t. Hal itu akan berdampak pula pada standar error Sb akan menjadi sangat besar, yang tentu akan memperkecil nilai t. Logikanya adalah seperti ini, jika antara X1 dan X2 terjadi kolinearitas sempurna sehingga data menunjukkan bahwa X1=2X2, maka nilai b1 dan b2 akan tidak dapat ditentukan hasilnya.
                                                    
20.  Jelaskan apa yang dimaksud dengan Normalitas !

Asumsi Normalitas adalah asumsi residual yang berdistribusi Normal. Asumsi ini harus terpenuhi untuk model regresi linear yang baik. Uji Normalitas dilakukan pada nilai residual model regresi. Tujuan dilakukannya uji normalitas adalah untuk menguji apakah variabel penganggu (e) memiliki distribusi normal atau tidak. Pengujian normalitas data dapat dilakukan sebelum ataupun setelah tahapan analisis regresi.

21.  Jelaskan kenapa Normalitas timbul !

Penyebab terjadinya kasus Normalitas adalah :
*      Terdapat data residual dari model regresi yang memiliki nilai data yang berada jauh dari himpunan data atau data ekstrim (outliers), sehingga penyebaran datanya menjadi non-Normal.
*      Terdapat kondisi alami dari data yang pada dasarnya tidak berdistribusi Normal atau berdistribusi lain, seperti: distribusi binormal, multinormal, eksponensial, gamma, dll.

22.  Bagaimana cara mendeteksi masalah Normalitas ?

Berikut diberikan cara-cara mengidentifikasi adanya kasus Normalitas :
*      Dilakukan pemeriksaan dengan metode Grafik, yaitu pemeriksaan Normalitas dengan output normal P-P plot atau Q-Q plot. Asumsi Normalitas terpenuhi ketika pencaran data residual berada disekitar garis lurus melintang.
*      Dilakukan pengujian dengan metode Formal, seperti: pengujian normalitas yang dilakukan melalui uji Kolmogorov-Smirnov, uji Anderson-Darling, uji Shapiro-Wilk, dan uji Jarque-Bera yang mana semua pengujian ini memiliki hipotesis interpretasi, yaitu:
·         H0 : Residual berdistribusi Normal
·         H1 : Residual tidak berdistribusi Normal
Asumsi Normalitas terpenuhi ketika pengujian normalitas menghasilkan P-value (Sign.) lebih besar dari α dengan nilai α ditentukan sebesar 1%, 5%, atau 10%.

23.  Apa konsekuensi dari adanya masalah Normalitas dalam Model ?

Uji normalitas bertujuan untuk menguji apakah dalam model regresi, variabel penggangu atau residual memiliki distribusi normal.  Jika asumsi ini dilanggar, maka uji statistik menjadi tidak valid atau bias terutama untuk sampel kecil. Uji normalitas dapat dilakukan melalui dua pendekatan yaitu melalui pendekatan grafik (histogram dan P-P Plot) atau uji kolmogorov-smirnov, chi-square, Liliefors maupun Shapiro-Wilk.

24.  Bagaimana cara menangani jika data ternyata tidak normal ?

*      Melakukan transformasi variabel terhadap variabel respon (y) dan variabel prediktor (X). Transformasi yang digunakan adalah transformasi ln, akar kuadrat, dan Box-Cox.
*      Menggunakan transformasi pilihan untuk menstimulasi Normalitas[3], yaitu: transformasi ln-skewness (gunakan software STATA) yang dilakukan pada variabel respon (y), kemudian transformasi yang terbentuk diterapkan juga pada variabel prediktornya (X). Ketentuan transformasi ini dilakukan dengan mentransformasikan y dalam ln|y – k| secara iteratif sehingga ditemukan suatu nilai k yang menyebabkan nilai skewness-nya mendekati nol.
*      Menggunakan metode estimasi yang lebih advance, seperti: Regresi dengan pendekatan Bootstrapping, Regresi Nonparametrik, dan Regresi dengan pendekatan Bayessian.

Manajemen Sumber Daya Manusia

Bagaimana Persiapan dalam Menghadapi Wawancara Kerja baik Offline maupun Online ?             Dewasa ini, kita semua pasti sudah seri...