Apa itu maksud dari multikolinearitas

Salah satu uji asumsi klasik yang harus dipenuhi pada analisis regresi adalah multikolinearitas. Multikolinearitas adalah suatu kondisi pada model regresi yang memiliki variabel independen saling berhubungan sedang atau kuat. Hubungan atau korelasi sedang dan kuat biasanya ditentukan dengan nilai korelasi masing masing variabel.

Seperti yang kita ketahui korelasi dan regresi memiliki tingkatan yang berbeda. Korelasi menyatakan hubungan tetapi tidak saling mempengaruhi satu sama lain. Sedangkan regresi memiliki variabel yang mempengaruhi dan variabel yang dipengaruhi. Jadi pada korelasi belum ditentukan mana variabel yang mempengaruhi dan mana yang dipengaruhi, artinya kedua variabel pada posisi yang sama.

Multikolinearitas akan muncul jika salah satu atau beberapa diantara variabel memiliki korelasi. Penyakit multikolinearitas ini akan semakin besar dampaknya jika antara variabel memiliki tingkat pengaruh atau regresi di dalam regresi. karena tingkatan regresi lebih tinggi dibandingkan korelasi seperti yang dijelaskan di paragraf sebelumnya.

Dampak Multikolinearitas

Multikolinearitas memiliki dampak yang cukup besar. Setidaknya ada dua dampak yang akan dirasakan mengganggu hasil dari regresi berganda. Pertama, nilai signifikansi akan tidak valid atau menurun. Kedua, nilai koefisien bertentangan dengan teori. Agar dapat dipahami dengan mudah dampak dari multikolinear ini, mari kita belajar bersama memahami multikolinearitas dengan menggunakan data di bawah ini:

jika data diatas kita run dengan regresi berganda dengan X1 dan X2 sebagai variabel independen, dan Y sebagai variabel dependen dengan menggunakan SPSS. Guna memunculkan indikasi multikolinearitas, klik statistic dan beri centang collinierity diagnostic:

Apa itu maksud dari multikolinearitas
Gambar 0

klik continue dan klik OK. maka akan muncul hasil sebagai berikut:

Apa itu maksud dari multikolinearitas
Gambar 1

terlihat pada gambar diatas hasil ini tidak signifikan secara parsial baik X1 maupun X2 karena memiliki nilai signifikansi yang lebih besar dari 0.05. Hal ini akan dirasakan mengherankan jika secara teori X1 dan X2 seharusnya memiliki pengaruh yang kuat terhadap nilai Y.

Dengan data yang sama coba kita regresikan sekali lagi dengan Y sebagai variabel dependen dan X1 sebagai variabel independen. hasilnya adalah sebagai berikut:

Apa itu maksud dari multikolinearitas
Gambar 2

terlihat pada gambar diatas, X1 memiliki pengaruh yang kuat terhadap Y yang dibuktikan dengan nilai signifikansi dibawah 0.05 dengan koeffisien positif. Kemudian kita lakukan hal yang sama terhadap X2 (Y sebagai variabel dependen dan X2 sebagai variabel independen). hasilnya adalah sebagai berikut:

Apa itu maksud dari multikolinearitas
Gambar 3

Sama seperti X1, X2 seharusnya memiliki pengaruh yang kuat terhadap variabel Y. Lalu, mengapa jika digabungkan keduanya malah tidak signifikan? betul, jawabnya karena terjadi multikolinearitas. untuk membuktikannya mudah saja, yakni dilihat dari nilai VIF pada gambar pertama diatas. Jika nilai VIF di atas 10, maka dapat diduga terjadi multikolinearitas. Gambar diatas memiliki nilai VIF diatas 100, yang artinya multikolinearitasnya sudah sangat kuat.

Oke, dampak pertama sudah terbukti yakni nilai signifikansinya menurun. lalu bagaimana dengan dampak kedua yakni perubahan pada nilai koefisien. Kembali perhatikan gambar 1 diatas. Koefisien X2 pada hasil tersebut memiliki nilai negatif. Arti nilai negatif pada tabel tersebut menandakan hubungan antara X2 dan Y. Semakin tinggi nilai X2 maka nilai Y2 semakin rendah (slope negatif).

Namun perhatikan pada gambar 3 pada saat X2 diregresikan secara terpisah dengan Y. Pada signifikan dibawah 0.05, terlihat bahwa hubungan X2 dan Y sebenarnya adalah positif. Untuk lebih jelasnya perhatikan kedua grafik X1 terhadap Y dan X2 terhadap Y dibawah ini:

Apa itu maksud dari multikolinearitas
Apa itu maksud dari multikolinearitas

Kedua grafik diatas memperlihatkan jika kedua variabel X1 dan X2 sebenarnya memiliki hubungan slope positif dengan Y jika diregresikan secara terpisah. Hal ini membuktikan bahwa multikolinearity bisa menyebabkan perubahan arah slope variabel independen pada regresi.

Jadi, jika anda menemukan hasil regresi yang tidak sesuai dengan teori. Misalkan penggunaan pupuk organik seharusnya memiliki koefisien positif terhadap produksi, tetapi mengapa terjadi koefisien negatif. Kemungkinan variabel pupuk organik tersebut memiliki korelasi dengan variabel independen lainnya seperti luas lahan, karena banyaknya penggunaan pupuk sangat bergantung kepada luas lahan yang dimiliki. Kasus ini sering terjadi terhadap data yang saya olah.

Solusi yang tepat untuk mengatasi multikolinear adalah mengeliminasi salah satu varaibel yang diindikasikan memiliki hubungan. pemeriksaan hubngan variabel variabel independen bisa dilakukan dengan menggunakan pearson correlation. Dalam SPSS bisa dijumpai pada menu analyze – correlate – bivariate.

Apa itu maksud dari multikolinearitas
korelasi antara X1 dan X2

terlihat pada gambar diatas X1 dan X2 memang memiliki korelasi yang sangat kuat. mengeliminasi salah satu keduanya akan memperbaiki multikolinearitas.

Solusi kedua dalam mengatasi multikolinearitas adalah tidak menggunakan OLS. Multikolinearitas merupakan salah satu kelemahan OLS yang biasa digunakan pada regresi. Biasanya jika anda menggunakan simultan, masalah multikolineraitas ini diabaikan karena simultan tidak menggunakan OLS, melainkan 2SLS.

Demikian, selamat belajar!

Oleh : Nanda Rizki Amalia (SRK 2018)

Uji asumsi klasik adalah persyaratan statistik yang harus dipenuhi pada analisis regresi linear yang berbasis ordinary least square (OLS). Uji asumsi klasik yang sering digunakan yaitu uji multikolinearitas, uji heteroskedastisitas, uji autokorelasi dan uji linearitas. Namun tidak semua uji asumsi klasik harus dilakukan pada analisis regresi linear, misalnya uji multikolinearitas tidak dilakukan pada analisis regresi linear sederhana dan uji autokorelasi tidak perlu diterapkan pada data cross sectional. Pada artikel ini kita akan membahas lebih dalam mengenai Uji Multikolinearitas.

Multikolinearitas adalah sebuah situasi yang menunjukkan adanya korelasi atau hubungan kuat antara dua variabel bebas atau lebih dalam sebuah model regresi linear berganda. Sebagai contoh dalam suatu model regeresi yang terdiri dari variabel bebas adalah kecepatan pelayanan, keramahan pegawai dan kualitas makanan, dengan variabel terikatnya adalah kepuasaan pelanggan. Dalam model tersebut secara logika untuk mengetahui pengaruh antara kecepatan pelayanan, keramahan pegawai dan kualitas makanan terhadap kepuasaan pelanggan sehingga tidak boleh ada korelasi yang tinggi antara kecepatan pelayanan dengan keramahan pegawai, kecepatan pelayanan dengan kualitas makanan, dan keramahan pegawai dengan kualitas makanan.

Apabila terjadi multikolinearitas dalam sebuah model regresi berganda, maka nilai koefisien beta dari sebuah variabel bebas dapat berubah secara dramatis apabila ada penambahan atau pengurangan variabel bebas di dalam model. Oleh karena itu, multikolinearitas tidak mengurangi kekuatan prediksi secara simultan, namun mempengaruhi nilai prediksi dari sebuah variabel bebas. Nilai prediksi sebuah variabel bebas disini adalah koefisien beta. Oleh karena itu, sering kali kita bisa mendeteksi adanya multikolinearitas dengan adanya nilai standar error yang besar dari sebuah variabel bebas dalam model regresi. Berdasarkan penjelasan di atas, maka dapat disimpulkan bahwa, jika terjadi multikolinearitas, maka sebuah variabel yang berkorelasi kuat dengan variabel lainnya di dalam model, kekuatan prediksinya tidak handal dan tidak stabil. maka hubungan antara variabel bebas terhadap variabel terikatnya menjadi terganggu.

Adapun beberapa dampak lain dari adanya multikolinearitas dalam model regresi antara lain:

  1. Koefisien Partial Regresi tidak terukur secara presisi. Oleh karena itu nilai standar errornya besar.
  2. Perubahan kecil pada data dari sampel ke sampel akan menyebabkan perubahan drastis pada nilai koefisien regresi partial.
  3. Perubahan pada satu variabel dapat menyebabkan perubahan besar pada nilai koefisien regresi parsial variabel lainnya.
  4. Nilai Confidence Interval sangat lebar, sehingga akan menjadi sangat sulit untuk menolak hipotesis nol pada sebuah penelitian jika dalam penelitian tersebut terdapat multikolinearitas.

Alat statistik yang sering dipergunakan untuk menguji gangguan multikolinearitas adalah dengan variance inflation factor (VIF), korelasi pearson antara variabel-variabel bebas, atau dengan melihat eigenvalues. Sedangka beberapa cara dapat kita lakukan untuk mendeteksi adanya multikolinearitas dalam model regresi adalah dengan cara :

  1. Melihat kekuatan korelasi antar variabel bebas. Jika ada korelasi antar variabel bebas > 0,8 dapat diindikasikan adanya multikolinearitas.
  2. Melihat nilai standar error koefisien regresi parsial. Jika ada nilai standar error > 1, maka dapat diindikasikan adanya multikolinearitas.
  3. Melihat rentang confidence interval. Jika rentang confidence interval sangat lebar, maka dapat diindikasikan adanya multikolinearitas.
  4. Melihat nilai Condition Index dan eigenvalue. Jika nilai condition index > 30 dan nilai eigenvalue < 0,001 dapat diindikasikan adanya multikolinearitas.
  5. Melihat nilai Tolerance dan Variance Inflating Factor (VIF). Jika nilai Tolerance < 0,1 dan VIF > 10 dapat diindikasikan adanya multikolinearitas.

Beberapa ahli lebih sering menggunakan nilai Tolerance dan VIF dalam menentukan adanya Multikolinearitas di dalam model regresi linear berganda dibandingkan menggunakan parameter-parameter yang lainnya.


Sumber :

https://www.konsultanstatistik.com/2009/03/uji-asumsi-klasik.html (Diakses pada tanggal 5 Oktober 2021)

https://www.statistikian.com/2016/11/multikolinearitas.html (Diakses pada tanggal 5 Oktober 2021)