Call us on 0823-9388-3833

Home » Artikel » Uji Asumsi Klasik Multikolinearitas

Uji Asumsi Klasik Multikolinearitas

Uji asumsi klasik  merupakan uji asumsi yang tujuannya  untuk  memberikan kepastian bahwa persamaan regresi yang didapatkan memiliki ketepatan dalam estimasi, konsisten, dan tidak bias. Agar persamaan yang diestimasi dapat menghasilkan estimator yang BLUE (Best Linear Unbiased Estimator), perlu dilakukan uji asumsi klasik untuk memastikan bahwa model yang digunakan bersifat robust.  Penyimpangan yang terjadi terhadap berbagai asumsi klasik menjadikan  estimasi dari variabel yang diharapkan kurang tepat (Zaenuddin, 2015).  Salah satu jenis uji asumsi klasik yang digunakan yaitu uji asumsi klasik multikoleniaritas.

Menurut Hamdi (2014), uji asumsi klasik multikolinearitas adalah korelasi linear yang sempurna atau eksak diantara variabel penjelas yang dimasukkan ke dalam model. Uji multikolinearitas digunakan untuk mengetahui apakah di dalam model regresi terjadi hubungan linear yang sempurna atau mendekati sempurna di antara beberapa atau semua variabel bebas. Salah satu contoh, penelitian mengenai perilaku variabel (Y) kinerja, dan dijelaskan oleh beberapa variabel yang dimasukkan ke dalam model  X1, X2, X3, dan X4, maka persamaan tertulis :

Y = a + b1X1 + b2X2 + b3X3 + b4X4 + e

Jika antara X1, X2, X3, dan X4 ada yang memiliki korelasi tinggi maka hal tersebut mengidentifikasi adanya masalah multikolinearitas.

Model yang baik tidak memiliki masalah multikolinearitas di mana semua variabel-variabel bebas yang ada benar-benar bebas, tidak ada hubungan yang erat antara satu dengan lainnya. Tidak adanya masalah kolineritas bebas berarti masing-masing variabel bebas mempunyai kekuatan independent dalam memengaruhi variabel terikat sehingga dapat menghasilkan estimator yang tepat dalam peramalan.

            Terdapat berbagai cara yang dapat digunakan untuk mendeteksi ada atau tidaknya multikolinearitas dalam suatu model. Beberapa penelitian menggunakan nilai Variance Inflation Factor (VIF) yang dihasilkan dari program Statistical Product and Service Solutions (SPSS). Multikolinearitas  terjadi jika nilai VIF lebih dari 10 (Sarwoko dalam Zaenuddin, 2015). VIF merupakan suatu cara mendeteksi multikolinearitas dengan melihat sejauh mana sebuah variabel penjelas atau variabel lainnya di dalam persamaan regresi. Semakin tinggi VIF suatu variabel tertentu, maka semakin tinggi variabel koefisien estimasi pada variabel tersebut sehingga semakin berat dampak multikolinearitas yang ditimbulkan (Zaenuddin, 2015).

  1. Akibat Terjadinya Multikolinearitas

Jika antara X1 dan X2 terjadi multikolinearitas, misalnya secara sempurna seluruh data menunjukkan bahwa X1= 2 X2, maka nilai b1 dan b2 tidak dapat ditentukan hasilnya karena dari formula OLS (ordinary least square)  sebagaimana dibahas:

bi =

Akan menghasilkan bilangan pembagian,

bi =

Dengan demikian hasilnya tidak menentu. Demikian juga standar error (Sb1) akan menjadi sangat besar. Jika multikolinearitas tidak begitu sempurna tetapi tetap tinggi akibatnya adalah parameter estimasi b1 yang diperoleh tetap valid, tetapi Sb1 akan bias membesar. Akibatnya uji t yang  rumusnya berupa, t=b1/S1 akan cenderung kecil (Hamdi, 2014).

  1. Konsekuensi Terjadinya Multikolinearitas yang Tidak Sempurna

Karena yang bias membesar, dalam kasus multikolinearitas adalah Sb maka sepanjang uji t sudah signifikan maka multikolinearitas tidak perlu dirisaukan. Hal ini disebabkan arah pembiasan Sb yang selalu membesar. Logikanya jika t = b dibagi bilangan yang bias membesar masih signifikan, maka t sebenarnya lebih signifikan lagi. Akan tetapi, jika t menjadi tidak signifikan, maka multikolinearitas perlu ditangani (Hamdi, 2014).

  1. Cara Menangani Terjadinya Multikolinearitas

Pada hakikatnya jika X1 dan X2 multikolinear, maka keduanya bersifat saling mewakili dalam memengaruhi variabel tergantung (Y). Oleh karena itu, penanganannya adalah dibuat persamaan yang terpisah.

Sebagai contoh, penelitian memiliki regresi sebagai berikut:

Y = a + b1X1 + b2X2 + b3X3 + b4X4 + e

Karena X1 dan X2 memiliki kolinearitas yang tingi, maka regresi dapat dibuat menjdi dua model, yaitu:

Y = a + b1X1 + b3X3 + b4X4 + e, dan

Y = a + b2X2 + b3X3 + b4X4 + e

Pada  prinsipnya kita harus mengestimasi impak X1 terhadap Y dan X2 terhadap Y secara terpisah dan tidak dapat bersama – sama (Hamdi, 2014).

  1. Cara Pengujian Multikolinearitas

Melihat dari contoh di atas, dapat digunakan korelasi matrik. Aturannya jika korelasi antara X lebih besar dari korelasi X dan Y, maka variabel bebas tersebut mengidentifikasi  multikolinear (Hamdi, 2014).

Daftar Pustaka

Hamdi, Asep Saepul dan E. Baharuddin. 2014. Metode Penelitian Kuantitaf Aplikasi Dalam Pendidikan. Yogyakarta: Deepublish.

Zaenuddin, Muhammad. 2015. Isu, Problematika, Dan Dinamika Perekonomian, Dan Kebijakan Publik. Yogyakarta: Deepublish.

Related Post

Kekuatan dan kelemahan penelitian gabungan KEKUATAN DAN KELEMAHAN PENELITIAN GABUNGANPenelitian gabungan merupakan penelitian yang memadukan metode penelitian kuantitatif dan kualitatif. Pe...
Grounded Theory Grounded TheoryGrounded Theory atau teori dasar merupakan salah satu pendekatan dalam jenis penelitian kualitatif. Grounded Theory dapat pula dika...
Penelitian Korelasional A. Penelitian KorelasionalPenelitian korelasi atau korelasional adalah suatu penelitian untuk mengetahui hubungan dan tingkat hubungan antara dua ...
Jenis validasi penelitian Pengertian Validitas           Validitas sering diartikan dengan kesahihan. Suatu alat ukur disebut memiliki validitas bilamana alat ukur tersebut is...

Leave a Reply

Your email address will not be published. Required fields are marked *