Apa Yang Dimaksud Dengan Regresi Linier

Apa Yang Dimaksud Dengan Regresi Linier ?

Apa yang dimaksud dengan regresi linier (teori regresi) ?  Istilah regresi pertama kali dalam konsep statistik digunakan oleh Sir Francis Galton. Dimana yang bersangkutan melakukan kajian yang menunjukkan bahwa tinggi badan anak-anak yang dilahirkan dari para orang tua yang tinggi cenderung bergerak (regress) ke arah ketinggian rata-rata populasi secara keseluruhan.

Galton memperkenalkan kata regresi (regression) sebagai nama proses umum untuk memprediksi satu variabel, yaitu tinggi badan anak dengan menggunakan variabel lain, yaitu tinggi badan orang tua. Pada perkembangan berikutnya hukum Galton mengenai regresi ini ditegaskan lagi oleh Karl Pearson dengan menggunakan data lebih dari seribu.

Pada perkembangan berikutnya, para ahli statistik menambahkan istilah regresi berganda (multiple regression) untuk menggambarkan proses dimana beberapa variabel digunakan untuk memprediksi satu variabel lainnya.

Regresi dalam pengertian modern  menurut Damodar Gujarati (2009) ialah  sebagai kajian terhadap ketergantungan satu variabel, yaitu variabel tergantung terhadap satu atau lebih variabel lainnya atau yang disebut sebagai variabel – variabel eksplanatoris dengan tujuan untuk membuat estimasi dan / atau memprediksi rata – rata populasi atau nilai rata-rata variabel tergantung dalam kaitannya dengan nilai – nilai yang sudah diketahui dari variabel eksplanatorinya.

Selanjutnya menurut Gujarati meski analisis regresi berkaitan dengan ketergantungan atau dependensi satu variabel terhadap variabel – variabel lainnya hal tersebut tidak harus menyiratkan sebab – akibat (causation).

Dalam mendukung pendapatnya ini, Gujarati mengutip pendapat Kendal dan Stuart yang diambil dari buku mereka yang berjudul “The Advanced Statistics” yang terbit pada tahun 1961 yang mengatakan bahwa,” suatu hubungan statistik  betapa pun kuat dan sugestifnya tidak akan pernah dapat menetapkan hubungan sebab akibat (causal connection); sedang gagasan mengenai sebab akibat harus datang dari luar statistik, yaitu dapat berasal dari teori atau lainnya”.

Sedang menurut Levin & Rubin (1998), regresi digunakan untuk menentukan sifat – sifat dan kekuatan hubungan antara dua variabel serta memprediksi nilai dari suatu variabel yang belum diketahui dengan didasarkan pada observasi masa lalu terhadap variabel tersebut dan variabel-variabel lainnya. Jadi, sampai di sini kita suda mendapatkan sedikit gambaran tentang apa yang dimaksud dengan regresi (teori regresi) ?.

Selanjutnya dalam regresi kita akan mengembangkan persamaan estimasi (estimating equation), yaitu rumus matematika yang menghubungkan variabel-variabel yang diketahui dengan  variabel-variabel yang tidak diketahui.

Setelah dipelajari  pola hubungannya, kemudian kita dapat mengaplikasikan analisis korelasi (correlation analysis) untuk menentukan tingkatan dimana variabel – variabel tersebut berhubungan. Kesimpulannya, analisis korelasi mengungkapkan seberapa benar persamaan estimasi sebenarnya menggambarkan hubungan tersebut. 

Lebih lanjut Levin & Rubin mengatakan bahwa: “ Kita sering menemukan hubungan sebab akibat antar variabel – variabel; yaitu variabel bebas ‘menyebabkan’ variabel tergantung berubah. Sekalipun demikian mereka melanjutkan bahwa: “penting untuk kita perhatikan bahwa yang kita anggap hubungan (relationship) yang diketemukan melalui regresi sebagai hubungan asosiasi (relationship of association) tetapi tidak selalu harus sebab dan akibat (cause and effect).

Kecuali kita mempunyai alasan-alasan khusus untuk percaya bahwa (perubahan pada) nilai – nilai variabel tergantung  disebabkan oleh nilai-nilai variabel bebas; jangan pernah menyimpulkan (infer) hubungan sebab akibat dari hubungan yang diketemukan dalam regresi.

Perbedaan Regresi dan Korelasi

Karena Levin & Rubin dalam mendefinisikan regresi juga menggunakan istilah “analisis korelasi”, maka sebaiknya dalam bagian ini penulis perlu menjelaskan perbedaan antara regresi dan korelasi. Menurut Gujarati (2009) analisis korelasi bertujuan untuk mengukur kekuatan (strength) atau tingkatan (degree) hubungan linier (linear association) antara dua variabel.

Untuk mengukur kekuatan hubungan linier ini digunakan koefisien korelasi. Sebaliknya dalam regresi kita tidak melakukan pengukuran seperti itu. Dalam regresi kita membuat estimasi atau memprediksi nilai rata-rata satu variabel didasarkan pada nilai – nilai tetap variabel – variabel lain.

Perbedaan yang mendasar antara regresi dan korelasi ialah dalam regresi terdapat (hubungan) asimetri dalam kaitannya dengan perlakuan terhadap variabel tergantung dan variabel bebas. Variabel tergantung diasumsikan statistikal, acak atau stokhastik, yaitu mempunyai distribusi probabilitas. Sedang variabel bebas / prediktornya diasumsikan mempunyai nilai – nilai tetap.

Sebaliknya dalam korelasi  kita memperlakukan dua variabel atau variabel – variabel apa saja secara simetris, yaitu tidak ada perbedaan antara variabel bebas dan variabel tergantung. Sebagai contoh korelasi antara nilai ujian matematik dan statistik sama dengan korelasi nilai ujian statistik dan matematik. Lebih lanjut dalam korelasi kedua variabel diasumsikan random /acak.

Nah, dengan mengetahui apa perbedaan mendasar antara regresi dan korelasi maka apa yang dimaksud dengan regresi linier menjadi semakin jelas bukan. Intinya adalah kalau regresi pola hubungannya adalah searah dari variabel independen ke variabel dependen, sedangkan korelasi pola hubungannya adalah dua arah.

Persamaan Regresi Linier

Regresi linier mempunyai persamaan yang disebut sebagai persamaan regresi. Persamaan regresi mengekspresikan hubungan linier antara variabel tergantung / variabel kriteria yang diberi simbol Y dan salah satu atau lebih variabel bebas / prediktor yang diberi simbol X jika hanya ada satu prediktor dan X1, X2 sampai dengan Xk, jika terdapat lebih dari satu prediktor (Crammer & Howitt, 2006). Persamaan regresi akan terlihat seperti di bawah ini:

·         Untuk persamaan regresi dimana Y merupakan nilai yang diprediksi, maka persamaannya ialah:

          Y = a + β1X1 (untuk regresi linier sederhana)

          Y = a + β1X1 + β2X2 + … + βkXk (untuk regresi linier berganda)

·         Untuk persamaan regresi dimana Y merupakan nilai sebenarnya (observasi), maka persamaan menyertakan kesalahan (error term / residual) akan menjadi:

          Y = a + β1X1 + e (untuk regresi linier sederhana)

          Y = a + β1X1 + β2X2 + … + βkXk + e (untuk regresi linier berganda)

 Dimana:

·         X: merupakan nilai sebenarnya suatu kasus (data)

·         β: merupakan koefesien regresi jika hanya ada satu prediktor dan koefisien regresi parsial jika terdapat lebih dari satu prediktor. Nilai ini juga mewakili mewakili koefisien regresi baku (standardized) dan koefisien regresi tidak baku (unstandardized). Koefisien regresi ini merupakan jumlah perubahan yang terjadi pada Y yang disebabkan oleh perubahan nilai X. Untuk menghitung perubahan ini dapat dilakukan dengan cara mengalikan nilai prediktor sebenarnya (observasi) untuk kasus (data) tertentu dengan koefisien regresi prediktor tersebut.

·         a: merupakan intercept yang merupakan nilai Y saat nilai prediktor sebesar nol.

Sedang yang dimaksud dengan garis regresi didefinisikan sebagai garis lurus yang ditarik dari titik – titik diagram pencar (scattered diagram) dari nilai variabel tergantung dan variabel bebas sehingga garis tersebut menggambarkan hubungan linier antara variabel-variabel tersebut. 

Jika nilai-nilai ini merupakan garis regresi nilai baku maka garis ini sama dengan garis korelasi. Garis ini disebut juga sebagai garis kecocokan yang sempurna dimana garis lurus tersebut berada pada posisi terdekat pada titik-titik diagram pencar. Garis ini dapat digambarkan dari nilai-nilai persamaan regresi dalam bentuk yang paling sederhana yaitu:

Nilai yang diprediksi = intercept + (koefesien regresi x nilai prediktor)

Sumbu vertikal dari diagram pencar digunakan untuk menggambarkan nilai-nilai variabel tergantung sedang sumbu horizontal menggambarkan nilai prediktor. Intercept merupakan titik sumbu vertikal yang merupakan nilai variabel tergantung yang diprediksi saat nilai prediktor atau variabel bebas sebesar nol.

Nilai yang diprediksi akan sebesar akan sebesar 0 jika koefesien regresi baku digunakan. Itulah sebabnya saat menggunakan IBM SPSS keluaran yang digunakan dalam koefesien regresi menggunakan keluaran pada kolom “unstandardized coefficient”.

Jika digambarkan akan tampak seperti di bawah ini:

Gambar Garis Regresi

Persamaannya ialah

          Y = a + β1X1

Dengan:

  • Y = variabel tergantung / variabel kriteria
  • a = intercept Y
  • β = kemiringan (slope)
  • X = variabel bebas

Garis regresi mempunyai 3 (tiga) kemungkinan yaitu: 1) hubungan linier positif, 2) hubungan linier negatif, dan 3) tidak ada hubungan linier. Gambarnya seperti di bawah ini:

1)      Hubungan Linier Positif

2)      Hubungan Linier Negatif

3)      Tidak Ada Hubungan Linier

Agar kita memperoleh kejelasan dalam penggunaan istilah, maka di bawah ini diberikan istilah-istilah yang mewakili pengertian variabel bebas dan variabel tergantung dalam regresi. Gujarati memberikan istilah sebagai berikut:

·         Variabel tergantung (dependent variable): disebut juga sebagai variabel yang dijelaskan (explained variable) / variabel yang diprediksi (predictand) / regresan (regressand) / variabel yang merespons ( response) / endegenous /  keluaran (outcome) / variabel yang dikontrol (controlled variable).

·         Variabel yang menerangkan (explanatory variable): disebut juga sebagai variabel bebas (independent variable) / variabel yang memprediksi (predictor) / regresor (regressor) / variabel stimulus ( stimulus) / exogenous /  kovariat (covariate) / variabel kontrol (control variable).

Nah, cukup sekian dulu ya bahasan kami mengenai apa yang dimaksud dengan regresi linier. Semoga penjelasan ini bisa menambah wawasan kita semua tentang teori regresi. Selamat belajar dan berkarya, semoga sukses (maglearning.id).

%%footer%%

Tinggalkan Balasan Batalkan balasan