Istilah Istilah Dasar dalam Analisis Regresi

Istilah Istilah Dasar dalam Analisis Regresi

Istilah Istilah Dasar dalam Analisis Regresi – Bisa dibilang regresi adalah biang dari analisis statistik penelitian modern, karena dasar dari analisis statistik untuk penelitian ilmu sosial berbasis model regresi. Tidak hanya model-model regresi yang bervariasi misalnya, regresi logit, regresi multi level, regresi panel, juga analisis jalur dan analisis model struktural sebenarnya juga berbasis model regresi.

Nah, dalam analisis regresi akan banyak kita temukan banyak istilah istilah khas analisis regresi. Berikut berikut ini diantaranya :

Koefisien Regresi Baku 

Koefisien regresi baku (Standaridzed regression coefficient) adalah nilai statistik dalam regresi linier yang menggambarkan kekuatan dan arah hubungan linier (linear association) antara variabel tergantung (kriteria) dan variabel bebas (prediktor).  Nilai ini disebut baku karena kisaran nilainya antara -1 sampai dengan 1 (Cramer & Howitt, 2006).

Jika nilainya semakin mendekati 1 maka hal tersebut menunjukkan hubungan antara kedua variabel semakin kuat dengan mengabaikan apakah positif atau negatif. Dengan demikian variabel bebas akan semakin kuat untuk digunakan memprediksi variabel tergantung. Karena prediktor – prediktor sudah distandarisasi maka hal tersebut memungkinkan untuk membandingkan kekuatan relatif hubungan atau bobot mereka dengan variabel tergantungnya.

Jika tidak terdapat   tanda (positif atau negatif), maka diinterpretasikan hubungan kedua variabel positif. Hubungan positif bermakna jika nilai pada prediktor tinggi, maka nilai pada variabel tergantung juga tinggi.

Sebaliknya jika terdapat tanda negatif, maka hubungan kedua variabel tersebut negatif. Hubungan negatif mempunyai makna jika jika nilai pada prediktor tinggi, maka nilai pada variabel tergantung rendah. Koefesien dengan nilai sebesar 0,50 mempunyai makna bahwa untuk setiap kenaikan simpangan baku pada nilai prediktor, maka simpangan baku pada variabel tergantungnya naik sebesar 0,5.

Koefesien regresi baku dapat diubah menjadi koefesien regresi yang tidak baku dengan cara mengkalikan koefesien regresi baku dengan deviasi standar (SD) variabel tergantung dan membaginya dengan deviasi standar prediktornya. Jika dirumuskan akan menjadi:

Koefisien Regresi Tidak Baku

Koefisien regresi tidak baku merupakan salah satu dari istilah istilah dasar dalam analisis regresi yang jarang diperhatikan oleh para peneliti pemula. Koefisien regresi tidak baku (Unstandaridzed regression coefficient) adalah koefesien yang belum distandarisasi yang mempunyai nilai acak dan tidak terbatas lawan dari koefisien yang distandarisasi dengan nilai ± 1. Prediktor tertentu yang diukur dalam unit dengan nilai – nilai yang lebih besar akan terdapat kemungkinan mempunyai koefesien regresi parsial yang tidak baku yang lebih besar daripada prediktor tertentu yang diukur dalam unit nilai yang lebih kecil.

Oleh karena itu, kita akan kesulitan membandingkan bobot relatif prediktor-prediktor tersebut saat mereka tidak diukur dengan menggunakan skala atau ukuran yang sama.  Koefisien regresi tidak baku dapat diubah menjadi koefisien baku dengan cara mengalikan koefisien regresi tidak baku dengan deviasi standar variabel bebas dengan dibagi oleh deviasi standar variabel tergantungnya.

Hubungan Linier

Hubungan linier diartikan bahwa hubungan antara variabel bebas / prediktor dengan variabel tergantung / kriteria membentuk garis lurus. Sekalipun demikian tidak semua hubungan selalu membentuk garis lurus, ada hubungan yang membentuk garis lengkung. Artinya garis kecocokan yang terbaik bukan dalam bentuk garis lurus tetapi membentuk kurva seperti huruh U. Sebagaimana dalam hubungan linier yang berbentuk garis lurus, maka kedekatan titik – titik kearah garis berbentuk kurva lengkung merupakan faktor penting dalam menentukan ukuran (kekuatan) hubungan.  Jika bentuknya semakin menyebar, maka kekuatan hubungan semakin melemah.

Model yang Baik

Model dalam statistik mempunyai pengertian membentuk keseluruhan data dalam pertanyaan. Dengan demikian, model statistik adalah deskripsi matematik bagaimana beberapa variabel menjelaskan data tersebut dalam pertanyaan. Oleh karena itu model yang baik mampu menjelaskan data tersebut sedekat mungkin tanpa menjadikannya rumit yang menyebabkan pemahaman terhadap data tersebut menjadi kabur atau tidak jelas.

Asumsi Klasik Dalam Regresi

Asumsi klasik adalah beberapa pesyaratan yang harus ditaati saat kita menggunakan prosedur regresi linier, diantaranya ialah: otokorelasi, multikolinieritas, normalitas residual, heteroskedastisitas.

Autokorelasi

Autokorelasi adalah dimana terjadi korelasi dalam variabel bebas yang mengganggu hubungan variabel bebas tersebut dengan variabel tergantung. Untuk pengujian otokorelasi kita menggunakan nilai dari Durbin – Watson (DW). Kisaran nilai DW mulai dari 0 – 4. Tidak terjadi autokorelasi jika: – 2 ≤ DW ≤ 2  (Anderson, 2001:733)

Multikolinieritas

Multikolinieritas yaitu terjadi korelasi antar variabel bebas dalam regresi linier berganda dengan nilai yang sangat tinggi atau sangat rendah. Nilai-nilai yang digunakan untuk menguji multikolinieritas diantaranya: nilai variance inflation factor (VIF) dengan ketentuan jika nilai VIF > 5, maka terjadi multikolinieritas; nilai condition index dengan ketentuan  jika nilai  condition index > 5, maka terjadi multikolinieritas; nilai korelasi antar variable bebas dengan ketentuan jika nilai koefesien korelasi antara variable bebas > 0,7 atau < – 0,7 (Anderson, 2001:644) maka terjadi multikolinieritas. Sedang menurut Hair (2010) sebesar ≥ 0,9

Normalitas Residual

Normalitas data berkaitan dengan distribusi suatu data dalam hal ini adalah residual hasil run regresi. Data yang mempunyai distribusi normal artinya data yang distribusinya simetris sempurna. Jika digunakan bahasa umum disebut berbentuk kurva bel. Menurut Johnston (2004) ciri-ciri data yang mempunyai distribusi normal ialah sebagai berikut:

  1. Kurva frekuensi normal menunjukkan frekuensi tertinggi berada di tengah-tengah, yaitu berada pada rata-rata (mean) nilai distribusi dengan kurva sejajar dan tepat sama pada bagian sisi kiri dan kanannya. Kesimpulannya, nilai yang paling sering muncul dalam distribusi normal ialah rata-rata (average), dengan setengahnya berada di bawah rata-rata dan setengahnya yang lain berada di atas rata-rata;
  2. Kurva normal, sering juga disebut sebagai kurva bel, berbentuk simetris sempurna;
  3. Karena  dua bagian sisi dari tengah-tengah benar-benar simetris, maka frekuensi nilai-nilai di atas rata-rata (mean) akan benar-benar cocok dengan frekuensi nilai-nilai di bawah rata-rata;
  4. Frekuensi total semua nilai dalam populasi akan berada dalam  area di bawah kurva.  Perlu diketahui bahwa area total di bawah kurva mewakili kemungkinan munculnya karakteristik tersebut;
  5. Kurva normal dapat mempunyai bentuk yang berbeda-beda. Yang menentukan bentuk-bentuk tersebut adalah nilai rata-rata dan simpangan baku (standard deviation) populasi.

Normalitas residual ini merupakan salah satu dari istilah istilah dasar dalam analisis regresi dimana para peneliti pemula sering tidak bisa membedakan antara normalitas data variabel dengan normalitas residual.

Heteroskedastisitas

Untuk memahami pengertian heteroskedastisitas diperlukan memahami terlebih dahulu pengertian homoskedastisitas.  Homoskedastisitas adalah deskripsi data dimana varian batas kesalahan (error terms / e) kelihatan konstan diluar jangkauan dari nilai – nilai variabel bebas tertentu. Asumsi kesamaan varian kesalahan populasi ε (dimana ε diestimasi dari nilai sampel e) kritis jika diaplikasikan pada  regresi linier yang benar. Saat batas kesalahan mempunyai varian yang semakin besar, maka data disebut bersifat heteroskedastisitas.

Dengan kata lain, homoskedastisitas merupakan asumsi dimana variabel tergantung menunjukkan tingkatan varian yang sama untuk semua variabel bebasnya. Jika penyebaran nilai varian pada semua variabel bebas tidak sama maka hubungan tersebut dikatakan sebagai heteroskedastisitas.

Untuk menguji homoskedastisitas (terjadinya kesamaan varian pada semua variable bebas) digunakan pengujian Levene pada data variable berskala non-metrik. Terjadi kesamaan varian jika nilai signifikansi (sig) pada Levene test > 0,05. Pengujian Levene dapat dijelaskan dengan membuat hipotesis awal (H0) yang berbunyi “ varian pada semua variable bebas sama” dan hipotesis alternatif (H1) yang berbunyi “varian pada semua variable bebas tidak sama”. Ketentuan pengujian hipotesis didasarkan pada nilai signifikansi: jika nilai sig > 0,05 H0 diterima; jika nilai sig < 0,05 H0 ditolak.

Jika variabel-variabel berskala metrik kita dapat menggunakan pengujian Box’s M. Ketentuan pengujiannya sama dengan cara pengujian menggunakan Levene test. Untuk mengetahui apakah terjadi heteroskedastisitas dalam pengujian diatas dapat diketahui dari nilai signifikansinya. Jika nilai signfikansi (sig) < 0,05, maka dalam model tersebut terjadi heteroskedastisitas.

Terjadi heteroskedastisitas dalam model regresi jika titik – titik dalam scaterplot membentuk pola –pola tertentu atau berkumpul disatu sisi atau dekat nilai 0 pada sumbu Y   pada kurva yang dihasilkan saat kita menggambar kurva dengan menggunakan SPSS. Jika titik – titik data menyebar tidak secara beraturan, maka tidak terjadi heteroskedastisitas.

Residual

Residual (e atau ε) adalah kesalahan dalam memprediksi data sampel. Kita berasumsi bahwa kesalahan random akan terjadi, tetapi kita berasumsi bahwa kesalahan ini merupakan estimasi kesalahan random yang sebenarnya pada populasi ( ε ), bukan semata hanya kesalahan prediksi dalam sampel ( e ). Pengertian lain ialah perbedaan antara nilai variabel tergantung yang sebenarnya dan nilai prediksi.

Least Square

Least Square adalah prosedur estimasi  yang digunakan dalam regresi linier dimana koefisien regresi diestimasi untuk meminimalkan jumlah residual kuadrat keseluruhan.

Interval Kepercayaan

Interval Kepercayaan adalah suatu pendekatan untuk menilai informasi dalam sampel yang memberikan interval untuk suatu nilai statistik yang berkaitan dengan bagaimana sebaiknya sampel ditarik dari populasi. Sebagai contoh interval kepercayaan 95% mengacu pada interval yang menjangkau nilai statistik, misalnya rata-rata untuk sampel yang sebesar 95% ditarik dari populasinya.

Signifikansi / Probabilitas / α

Signifikansi atau disebut juga probabilitas merupakan tingkat ketepatan (presisi) dalam kaitannya dengan kesalahan pengambilan sampel (sampling error), merupakan jangkauan dimana nilai populasi yang tepat diperkirakan. Jangkauan ini sering diekspresikan dengan menggunakan poin-poin persentase, misalnya 1% atau 5%.

Oleh karena itu jika seorang peneliti menemukan bahwa 60% pegawai perusahaan tertentu yang digunakan sebagai sampel sudah mengadopsi suatu metode bekerja yang direkomendasikan dengan tingkat ketepatan sebesar  ±1%, maka peneliti tersebut dapat menyimpulkan bahwa antara 59% dan 61% dari pegawai perusahaan tersebut yang menjadi  populasi sudah mengadopsi metode tersebut. Dalam perangkat lunak statistik sosial biasanya signifikansi ditulis secara default sebagai 0,05 (5%).

Degree of Freedom

Degree of Freedom (DF) / Derajat Kebebasan (DK) merupakan estimasi statistik yang didasarkan pada sampel yang sering berisi informasi yang redundan yang jika disertakan akan menghasilkan bias dalam estimasi tersebut. Metode penghitungan DF bervariasi tergantung dari apa yang diestimasi (dengan menggunakan prosedur apa kita membuat estimasi) dengan demikian tidak aturan umum yang dapat diterapkan. Sebagai contoh untuk menghitung DF dalam Chi Square, kita menggunakan aturan (Kolom – 1) x (Baris – 1) sedang dalam uji t sampel bebas digunakan aturan (n – 2).

Koefesien Determinasi

Koefesien Determinasi (R2) adalah pengukuran proporsi varian variabel tergantung tentang rata – ratanya yang dapat dijelaskan oleh variabel bebas / prediktornya. Jika nilai ini semakin besar (mendekati 1), maka prediksi yang dibuat semakin akurat.

Adjusted R2

Koefisien Determinasi yang Disesuaikan (adjusted R2) adalah nilai Ryang disesuaikan dengan mempertimbangkan jumlah variabel bebas / predictor yang dimasukkan dalam persamaan regresi dan ukuran sampel. Asumsinya jika variabel bebas ditambahkan nilai ini cenderung naik. Nilai ini sering digunakan sebagai nilai kecocokan model (goodness of fit) dimana jika nilainya semakin tinggi (mendekati 1), model semakin benar / akurat.

Linieritas

Linieritas adalah istilah yang digunakan untuk mengekspresikan konsep yang menjelaskan bahwa model yang dibuat memiliki properti aditivitas dan homogenitas. Linier model mempunyai arti bahwa model tersebut memprediksi nilai – nilai yang berada pada garis lurus dengan memiliki perubahan unit konstan pada variabel tergantung untuk perubahan unit konstan pada variabel bebasnya. Dengan kalimat yang lebih sederhana linieritas mempunyai makna bahwa model tersebut dapat menjelaskan terjadinya perubahan pada nilai variabel tergantung dikarenakan terjadinya perubahan nilai pada variabel bebasnya.

Kolinieritas

Kolinieritas adalah ekspresi tentang hubungan antara dua variabel bebas atau lebih dari dua variabel bebas (multikolinieritas)

Variance Inflaction Vactor

Variance Inflaction Vactor adalah indikator pengaruh yang menunjukkan bahwa variabel – variabel bebas lainnya mempunyai kesalahan baku dari koefesien regresi. Nilai VIF yang tinggi menunjukkan terjadinya kolonieritas ataupun multi kolonieritas diantara variabel – variabel bebas. Jika nilai VIF > 5, maka terjadi multikolonieritas.

 

Demikianlah penjelasan beberapa istilah istilah dasar dalam analisis regresi yang perlu diperhatikan oleh para peneliti. Semoga bermanfaat (maglearning.id).

Loading...

Tinggalkan Balasan