Topik ini sengaja kembali saya posting karena baru –
baru ini saya dimintai tolong untuk melakukan analisis data hasil penelitian
terkait pengaruh variabel bebas terhadap variabel terikat dalam sebuah
penelitian studi kasus. Sudah lama memang saya meninggalkan pekerjaan analisis
ini karena semenjak kerja, saya sudah tidak lagi aktif menerima jasa analisis
data hasil penelitian yang sebelumnya menjadi sumber pendapatan yang lumayan.
Tapi karena basic ilmu di kampus jurusan matematika, membuat saya lebih mudah
memahami kembali setelah membaca ulang beberapa referensi. Untuk itu, postingan
ini juga menjadi catatan saya agar bisa bermanfaat bagi saya di kemudian hari
dan juga bermanfaat bagi para pembaca sekalian.
Menurut Wikepedia, Analisis Regresi dalam statistika adalah salah satu metode untuk
menentukan hubungan sebab akibat antara satu variabel dengan variabel-variabel
lainnya. Analisis regresi linear merupakan alat statistik yang dipergunakan
untuk mengetahui pengaruh antara satu atau beberapa variabel bebas (independen)
terhadap satu buah variabel terikat (dependen). Analisis regresi linear
biasanya digunakan dalam sebuah penelitian studi kasus yang tujuan
penelitiannya untuk mengetahui seberapa besar pengaruh satu atau lebih variabel
bebas terhadap satu variabel terikat. Penentuan variabel bebas dan variabel
terikat ditentukan oleh masing-masing peneliti secara bebas tergantung subyek
dan objek penelitian serta tujuan penelitian yang dilakukan.
Analisis regresi linear terbagi atas dua yakni
analisis regresi linear sederhana dan analisis regresi linear berganda.
Analisis regresi linear sederhana hanya memiliki satu variabel bebas. Sedangkan,
apabila variabel bebasnya lebih dari satu, maka disebut analisis regresi linear
berganda. Dalam analisis regresi linear akan dilakukan estimasi model
(persamaan) regresi linear seperti dibawah ini
Regresi Linear
Sederhana :
Y = a + bX
Dimana, Y = Variabel terikat (dependen)
a = Konstanta
b = Koefisien
X = Variabel bebas (independen)
Regresi Linear
Berganda : (untuk 2 Variabel bebas)
Y = a + bX1 + bX2
Dimana, Y = Variabel terikat (dependen)
a = Konstanta
b = Koefisien
X1 = Variabel bebas pertama (independen)
X2 = Variabel bebas pertama (independen)
Analisis regresi linear yang saya kemukakan disini
menggunakan pendekatan Ordinary Least Square (OLS) karena merupakan metode
estimasi fungsi regresi yang paling sering digunakan. Kriteria OLS adalah “Line
of Best Fit” atau dengan kata lain jumlah kuadrat dari deviasi antara
titik-titik observasi dengan garis regresi adalah minimum. Dalam pendekatan OLS
ini, sebuah model regresi linear yang diestimasi harus memenuhi beberapa asumsi
dasar yakni Normalitas, Autokorelasi, Multikolinearitas dan Heteroskedastisitas.
Uji Normalitas adalah sebuah uji yang dilakukan
dengan tujuan untuk menilai sebaran data
pada sebuah kelompok data atau variabel, apakah sebaran data tersebut bersifat
normal atau tidak. Uji normalitas berguna untuk menetukan data yang telah
dikumpulkan berdistribusi normal atau diambil dari populasi normal. Untuk
menguji normalitas data menggunakan beberapa metode diantaranya Chi-Square,
Kolmogorov Smirnov, Liliefors, Shapiro Wilk dan Jarque Bera.
Uji Autokorelasi adalah sebuah uji yang dilakukan untuk
mengetahui adanya korelasi variabel yang ada dalam model regresi dengan
perubahan waktu. Artinya tiap variabel tidak berkolerasi dengan dirinya sendiri
baik pada nilai variabel sebelumnya maupun nilai periode sesudahnya. Uji
autokorelasi harus dilakukan apabila data merupakan time series atau runtut
waktu. Untuk menguji adanya autokorelasi menggunakan beberapa metode
diantaranya : Durbin Watson, Breucsh Godfrey, Engle’s ARCH Test.
Uji Multikolinearitas adalah sebuah uji yang
dilakukan untuk mengetahui adanya korelasi atau hubungan antara dua variabel
bebas atau lebih dalam sebuah model regresi linear berganda. Model regresi yang
baik seharusnya tidak terjadi korelasi diantara variabel bebasnya. Untuk
menguji adanya multikolinearitas dapat dilakukan dnegan beberapa cara antara
lain melihat kekuatan korelasi antara variabel bebas, melhat nilai standar eror
koefisien regresi parsial, melihat rentang confidence interval, melihat nilai
Condition Index dan eigenvalue, dan melihat nilai Tolerance dan Variance Inflating
Factor (VIF).
Uji Heteroskedastisitas adalah uji yang menilai
apakah ada ketidaksamaan varian dari residual untuk semua pengamatan pada model
regresi linear. Uji ini harus dilakukan pada analisis regresi linear, jika
asumsi heteroskedastisitas tidak terpenuhi, maka model regresi dinyatakan tidak
valid sebagai alat peramalan.Untuk menguji asumsi heteroskedastisitas dapat
menggunakan beberapa cara antara lain uji Glejser, uji Park, uji Spearman dan
melihat data grafik.
Apabila seluruh asumsi dasar terpenuhi, maka langkah
selanjutnya dalam analisis regresi linear adalah melakukan uji kelayakan model.
Uji kelayakan model ini digunakan untuk mengukur ketepatan fungsi regresi
sampel dalam menaksir nilai actual. Secara statistik, uji kelayakan model dapat
dilakukan melalui uji keterandalan model / signifikasi simultan (uji F), Uji
Koefisien regresi / signifikansi individual (uji t) dan koefisien determinasi
(R2).
Uji keterandalan model / signifikasi simultan (uji F)
dimaksudkan untuk mengidentifikasi model regresi linear berganda yang
diestimasi layak atau tidak untuk menjelaskan pengaruh variabel-variabel bebas
terhadap variabel terikat. Uji F ini biasanya digunakan untuk menunjukkan
apakah semua variabel bebas (independen) yang dimasukkan dalam model regresi
mempunyai pengaruh secara bersama-sama terhadap variabel terikat (dependen).
Bila nila F hitung lebih besar daripada F table, maka semua variabel bebas
secara bersama-sama mempengaruhi variabel terikat.
Uji Koefisien regresi / signifikansi individual (uji
t) dimaksudkan untuk menguji apakah parameter (koefisien regresi dan konstanta)
yang diduga untuk mengestimasi persamaan model regresi linear berganda sudah
merupakan parameter yang tepat atau belum. Maksudnya apakah parameter dimaksud
mampu menjelaskan perilaku variabel bebas dalam mempengaruhi variabel
terikatnya. Uji t ini biasanya digunakan untuk menunjukkan seberapa jauh
pengaruh satu variabel bebas yang secara individual atau parsial dalam
mempengaruhi variabel terikat. Jika nilai t hitung lebih besar dari t table,
maka variabel bebas secara individual atau parsial berpengaruh terhadap
variabel terikat.
Uji koefisien determinasi (R2) digunakan
untuk mengukur seberapa besar persentase variabel bebas pada model regresi
linear dalam menjelaskan atau mempengaruhi variabel terikat. Nilai koefisien
determinasi berkisar antara 0 dan 1. Nilai R2 yang kecil menandakan
kemampuan variabel bebas dalam menjelaskan varabel terikat amat terbatas.
Sedangkan nilai yang mendekati satu menandakan variabel bebas dapat memberikan
hamper semua informasi yang dibutuhkan untuk memprediksi nilai variabel
terikat.
Setelah model regresi yang telah diestimasi telah
teruji maka langkah selanjutnya adalah melakukan interpretasi terhadap model
regresi linear yang terbentuk dalam menjelaskan hasil penelitian yang telah
dilakukan.
Agar penjelasan penggunaan analisis regresi linear
ini dengan SPSS lebih dipahami, saya membuat sebuah contoh kasus penelitian
dibawah ini :
Rumusan
masalah :
Seberapa besar biaya produksi (biaya bahan baku,
biaya tenaga kerja, biaya overhead pabrik) dan laba yang diinginkan berpengaruh
secara simultan maupun parsial terhadap penentuan harga jual produk mebel pada
CV. Untung.
Sebagai awal dalam tahapan penelitian adalah tabulasi
data. Data yang digunakan pada penelitian ini merupakan data time series. Data
time series merupakan salah satu jenis data dari satu entitas yang menjadi
populasi penelitian dengan dimensi waktu/periode yang panjang. Satuan waktu
dari data time series ini disesuaikan dengan data yang dimiliki misalnya
bulanan, triwulan, semesteran maupun tahunan.
Berikut ini adalah contoh data penjualan mebel pada
sebuah perusahaan yang saya beri nama CV. Untung. Data yang tersedia dalam
satuan bulanan. Adapun variabel penelitiaannya adalah Harga Jual (HJ) dalam
rupiah sebagai variabel terikat (Y), biaya produksi (BP) dalam rupiah sebagai
variabel bebas pertama (X1), dan laba yang diinginkan (L) dalam
rupiah sebagai variabel bebas kedua (X2).
Dalam penelitian ini ingin melihat pengaruh kedua
variabel bebas diatas terhadap penetuan harga jual, dengan model regresi linear
berganda sebagai berikut :
Y = a + b1X1 + b2X2
Pada persamaan (model) regresi linear berganda diatas
akan diestimasi parameter koefiseien regresi dan konstantanya, yaitu nilai a, b1
dan b2
Untuk mengestimasi persamaan (model) regresi
linear berganda diatas, saya menggunakan alat bantu software SPSS versi 16.
Untuk itu data pada penelitian ini ditabulasi sebagai berikut :
Bulan
|
Bahan Baku (BB)
|
Tenaga Kerja (TK)
|
Overhead pabrik (OP)
|
Biaya Produksi (BP)
|
Laba (L)
|
Harga Jual (HJ)
|
Januari
|
9,700,000
|
4,100,000
|
3,350,000
|
17,150,000
|
4,750,000
|
26,650,000
|
Februari
|
5,850,000
|
1,800,000
|
1,800,000
|
9,450,000
|
5,450,000
|
14,900,000
|
Maret
|
9,000,000
|
3,200,000
|
2,550,000
|
14,750,000
|
13,950,000
|
28,700,000
|
April
|
4,000,000
|
1,750,000
|
1,200,000
|
6,950,000
|
4,030,300
|
10,980,300
|
Mei
|
7,800,000
|
2,800,000
|
2,400,000
|
13,000,000
|
8,400,000
|
21,400,000
|
Juni
|
10,050,000
|
3,300,000
|
2,800,000
|
16,150,000
|
13,450,000
|
29,600,000
|
Juli
|
12,800,000
|
4,600,000
|
3,300,000
|
20,700,000
|
18,940,400
|
39,640,400
|
Agustus
|
5,850,000
|
1,800,000
|
1,800,000
|
9,450,000
|
5,450,000
|
14,900,000
|
September
|
15,400,000
|
5,400,000
|
4,200,000
|
25,000,000
|
23,800,000
|
48,800,000
|
Oktober
|
5,700,000
|
2,500,000
|
1,700,000
|
9,900,000
|
5,740,400
|
15,640,400
|
November
|
9,500,000
|
3,500,000
|
2,900,000
|
15,900,000
|
10,300,000
|
26,200,000
|
Desember
|
12,100,000
|
4,150,000
|
3,000,000
|
19,250,000
|
16,930,300
|
36,180,300
|
Total
|
107,750,000
|
38,900,000
|
31,000,000
|
177,650,000
|
131,191,400
|
313,591,400
|
Selanjutnya, data diinput dalam software SPSS dengan
tahapan sebagai berikut :
1. Buka Program SPSS 16.0, klik cancel untuk membuka halaman baru.
2. Lakukan
penginputan data variabel bebas dan variabel terikat
Perlu
diperhatikan dengan teliti terkait penentuan tipe variabel (lihat sheet
variable view)
Agar lebih dipahami, saya jelaskan satu persatu yach
:
Name : Diisi nama variabel yang kita inginkan dengan catatan tidak
boleh mengandung spasi dan tanda baca;
Type : kita harus menentukan jenis type data untuk tiap variabel
dari sekian banyak type data yang disediakan. Numeric untuk data dalam bentuk
angka; Comma adalah data berbentuk angka yang bisa bertanda plus atau minus,
dan tanda koma sebagai pembeda ribuan; Dot adalah data berbentuk angka yang
bisa bertanda plus atau minus, dan tanda titik sebagai pembeda ribuan;
scientific notation adalah data berbentuk angka yang bisa bertanda plus atau
minus, ditandai dengan symbol E; Date adalah data berupa waktu (tanggal) yang
bisa disesuaikan dengan sejumlah pilihan format tangal; Dollar adalah data
berbentuk angka, dengan symbol $ dan tanda koma sebagai pemisah tanda
ribuan; costum currency untuk menampilkan format mata uang yang dibuat melalui
kotak dialog option dari menu edit; dan string untuk data yang berbentuk
karakter atau huruf misalnya nama responden, alamat dsb)
Width : untuk menyesuaikan lebar kolom data
Decimal : untuk menentukan berapa angka decimal dibelakang koma
Label : untuk memudahkan pembacaan nama variabel yang biasanya
dibuat singkatan dari nama variabel
Values : untuk memberikan kode jika variabel yang diguakan bersifat
kategorik, misalnya jenis kelamin, 1 untuk laki-laki dan 2 untuk perempuan, dsb
Missing : untuk menentukan data mana yang dianggap hilang yang
tidak akan kita ikutkan dalam analisis, dengan tiga pilihan (1) No Missing
values jika tidak ada yang dianggap hilang; (2) Discreate missing values jika
ada angka tertentu yang kita angap hilang dan (3) Range plus one optional
discreate missing values jika ada data hilang dengan range yang jelas.
Columns : untuk menyesuaikan rataan kolom (kiri, kanan atau tengah)
Measure
: untuk menentukan jenis skala pada setiap
variabel. Secara default akan terpilih nominal jika variabel bertipe string dan
scale jika data bertipe numeric. Sedangkan ordinal untuk data bertipe kategori
3. Langkah selanjutnya adalah melakukan estimasi model
regresi linear dan pengujian asumsi klasik.
Untuk melakukan estimasi model regresi linear
berganda perlu dilakukan juga secara bersama pengujian asumsi klasik
(normalitas, autokorelasi, multikolinearitas dan heteroskedastisitas) agar
output yang dihasilkan dapat lebih baik dalam menjelaskan model regresi linear.
Masukkan
Harga Jual (HJ) sebagai variabel terikat ke kolom Dependent dan Biaya Produksi
(BP) serta Laba (L) sebagai variabel bebas ke dalam kolom independent
Lalu klik menu Statistik, centang pada pilihan Model
Fit, Estimates untuk membuat estimasi model regresi, Descriptives untuk
menghasilkan data deskriptif, Colinearity diagnostics untuk menghasilkan output uji
multikolinearitas dan durbin Watson untuk menghasilkan output uji autokorelasi,
lalu klik continue
Setelah
itu klik menu Plots lalu masukkan atau pindahkan *ZPRED ke kotak X dan *ZRESID
ke kotak Y untuk memnunculkan hasil uji heteroskedastisitas dan centang pilihan
Normal probability plot untuk mengahsilkan output uji normalitas. Lalu klik
continue
Setelah klik OK, maka akan muncul tampilan output
SPSS
Ingat klik icon SAVE untuk menyimpan file data dan
file output hasil analisis ini. Langkah selanjutnya adalah melakukan pengujian
asumsi klasik
Uji Normalitas
Hasil uji normalitas dapat dilihat pada gambar
Normal P-P Plot pada output SPSS. Kriteria data residual terdistribusi secara
normal atau tidak dengan pendekatan Normal P-P Plot dalah dengan melihat
sebaran titik-tik yang ada pada gambar. Apabila sebaran titik-titik tersebut
mendekati atau rapat pada garis lurus (diagonal) maka dikatakan bahwa data
residual terdistribusi secara normal, namun apabila sebaran titik-tik tersebut
menjauhi garis maka tidak terdistribusi normal
Jika dilihat dari sebaran titik-titik dari
gambar normal P-P plot diatas relative mendekati garis lurus, sehingga dapat
disimpulkan bahwa data residual penelitian ini terdistribusi normal. Hal ini
berarti uji normalitas terpenuhi. Namun kelemahan dari pengujian dengan melihat
sebaran titik pada grafik normal PP-Plot terletak pada kriteria dekat atau
jauhnya sebaran titik-titik dari garis diagonal. Untuk itu subyektifitas
peneliti menjadi penting dalam menentukan keabsahan uji ini. Untuk lebih
meyakinkan, maka saya akan melakukan uji normalitas dengan metode lainnya yakni
menggunakan metode Kolmogorov-Smirnov, dengan cara : klik menu Analiyze
>> Non parametric test >> 1 Sample K-S
Lalu masukkan seluruh variabel ke dalam “Test
Variable List”, lalu klik OK
Maka akan muncul output SPSS dibawah ini
Untuk
melihat apakah data terdistribusi normal atau tidak maka kita lihat pada baris
“Asymp Sig. (2-tailed)” dimana bila nilai tiap variabel lebih dari (> 0,05)
maka uji normalitas terpenuhi. Jika kita melihat hasil output SPSS, maka nilai
tiap variabel pada baris “Asymp Sig. (2-tailed)” lebih besar dari 0,05, untuk
itu maka uji normalitas terpenuhi.
Uji Autokorelasi
Hasil uji autokorelasi dapat dilihat pada output
SPSS pada table Model Summary yakni nilai Durbin Watson. Nilai Durbin Watson
pada table output SPSS disebut dengan DW Hitung. Nilai ini kemudian
dibandingkan dengan nilai pada table DW dengan kriteria dL dan dU
yang ditentutakn berdasarkan jumlah variabel bebas dan jumlah sampel. Jika
nilai DW hitung berada diantara nilai 0 dan dL maka adanya
autokorelasi positif, dan jika nilai DW hitung berada diantara nilai dU
dan 4-dU, maka disimpulkan tidak ada
autokorelasi serta jika nilai DW hitung berada diantara nilai 4-dL dan 4 maka adanya
autokorelasi negative
Diperoleh nilai DW hitung sebesar 1,694 dengan jumlah
sampel sebanyak 12 dan variabel bebas sebanyak 2 serta tingkat signifikansi
eror sebesar 0,05, maka diperoleh nilai dL =0,8122 dan dU
= 1,5794. Dapat terlihat bahwa nilai DW hitung berada diantara nilai dU
= 1,5794 dan nilai 4-dU = 4 – 1,5794 = 2,4206. Dengan demikian, tidak terdapat
autokorelasi, sehingga uji autokorelasi terpenuhi.
Uji Multikolinearitas
Hasil uji multikolinearitas dapat dilihat pada
output SPSS pada table Coefficient yaitu pada nilai Collinearity Statistik
(Tolerance dan VIF). Jika nilai VIFdari kedua variabel tidak ada yang lebih
besar dari 10 maka dapat dikatakan tidak terjadi multikolinearitas pada
variabel bebas tersebut
Dari table diatas, nilai VIF pada kedua variabel
bebas (BP dan L) sama sama bernilai 4,589 dengan tolerance senilai 0,218.
Karena nilai VIF kedua variabel itu lebih kecil dari 10 maka dismpulkan tidak
terdapat multikolinearitas. Dengan demikian uji multikolinearitas terpenuhi.
Uji heteroskedastisitas
Hasil uji ini dapat dilihat pada gambar
Scatterplot pada output SPSS. Jika sebaran titik tidak membentuk suatu
pola/alur tertentu maka disimpulkan tidak terjadi heteroskedastisitas
Dilihat
dari grafik Scaterplot diatas, sebaran titik-titiknya tidak membentuk suatu
pola atau alur tertentu, sehingga disimpulkan tidak adanya heteroskedastisitas.
Dengan demikian uji heteroskedastisitas terpenuhi.
Setelah
seluruh uji asumsu klasik terpenuhi, maka langkah selanjutnya adalah melakukan
uji kelayakan model. Apakah model (persamaan) regresi linear berganda yang
telah diestimasi dapat dengan baik menjelaskan pengaruh variabel bebas terhadap
variabel terikatnya. Dalam uji kelayakan model ini juga dapat diketahui
seberapa besar pengaruh (siginifikan atau tidak) variabel bebas terhadap
variabel terikat baik secara simultan maupun parsial.
Uji keterandalan model / signifikasi simultan (uji F)
Hasil uji F ini dapat dilihat pada table ANOVA
yakni nilai prob. F pada kolom Sig. Jika nilai prob F hitung lebih kecil dari
tingkat siginifikansi 0,05 maka dapat dikatakan bahwa model regresi yang
diestimasi layak
Berdasarkan table diatas, nilai prob F hitung (sig.)
bernilai 0,000 lebih kecildari tingkat signifikansi 0,05 sehingga dapat
disimpulkan bahwa model regresi linear yang diestimasi layak digunakan untuk
menjelaskan pengaruh variabel bebas terhadap variabel terikat yang telah
ditentukan.
Selain pengujian ini, dapat juga kita melihat
berdasarkan nilai F hitung. Jika nilai F hitung > dari F table maka dapat
disimpulkan bahwa persamaan regresi yang diestimasi sangat signifikan pada
taraf kepercayaan 0,05
Berdasarkan table Anova diatas, nilai F hitung =
1952,988, dimana nilai F table dengan jumlah variabel bebas (k) = 2 dan jumlah
sampel penelitian (n) = 12 diperoleh nilai df1 = k-1 = 2-1 = 1; serta df2 = n-k
= 12-2 = 10, sehingga diperoleh nilai F table untuk signifikansi 0,05 sebesar
4,96. Karena F hitung = 1952,988 > F table = 4,96, maka disimpulkan bahwa persamaan
regresi linear yang diestimasi berpengaruh secara signifikan. Kesimpulan lain
yang juga bisa ditarik dari uji F ini adalah semua variabel bebas secara
bersama-sama berpengaruh signifikan terhadap variabel terikat.
Uji Koefisien regresi / signifikansi individual (uji
t)
Hasil uji t ini dapat dilihat pada otput SPSS
pada table Coeficient. Apabila nilai prob.t hitung pada output SPSS yang
ditunjukkan pada kolom Sig. lebih kecil dari tingkat kesalahan 0,05 maka dapat
dikatakan bahwa variabel bebas dari t hitung dimaksud berpengaruh signifikan
terhadap variabel terikatnya
Dari table diatas, nilai prob t hitung dari variabel
“BP” sebesar 0,000 yang lebih kecil dari 0,05 sehingga disimpulkan variabel
“BP” berpengaruh signifikan terhadap variab “HJ”. Sama halnya dengan variabel
“L” karena nilai prob t hitung = 0,000 yang juga lebih kecil dari 0,05 maka
dapat disimpulkan bahwa variabel “L” berpengaruh signifikan terhadap variabel
“HJ”.
Selain pengujian ini, dapat juga kita lihat
berdasarkan nilai t hitung, Jika nilai t hitung lebih besar dari t table, maka
variabel bebas secara individual atau parsial berpengaruh terhadap variabel
terikat
Berdasarkan
table coeficient diatas diperoleh nilai t hitung untuk variabel “BP” sebesar
20,188 dan untuk variabel “L” sebesar 9.759. Dengan signifikansi 0,05 dan n =
12 dan k =2 maka diperoleh derajat kebebasan dk = n-k = 12 – 2 = 10. Dengan
demikian diperoleh nilai t table sebesar 2,228. Karena nilai t hitung untuk
kedua variabel bebas diatas lebih besar dari nilai t table maka disimpulkan
bahwa koefisien korelasi untuk variabel “BP” dan variabel “L” berpengaruh
signifikan terhadap variabel “HJ” secara parsial
Uji koefisien determinasi (R2)
Hasil uji ini dapat dilihat pada output SPSS
pada table model summary pada nilai Adjusted R Square
Berdasarkan table diatas nilai adjusted R Square
sebesar 0,997. Hal ini menunjukkan bahwa proporsi pengaruh variabel “BP” dan
“L” terhadap variabel “HJ” sebesar 99,7 %. Hal ini juga berarti bahwa variabel
terikat “HJ” juga dipengaruhi oleh variabel lain diluar model regresi linear
yang diestimasi, namun pengaruhnya sangat kecil yakni 0,3 %.
Setelah analisis data dilakukan, langkah selanjutnya
adalah pembahasan hasil penelitian melalui interpretasi model analisis regresi
linear yang telah diestimasi.
Persamaan (model) regresi linear berganda yang telah
diestimasi sebagai berikut
Y = a + b1X1 + b2X2
Harga Jual (HJ) = -2.165.029,606 + 1,477 Biaya
Produksi (BP) + 0,589 Laba (L)
Kesimpulan yang dapat diambil antara lain :
- Jika dilihat pada model regresi linear diatas koefisien regresi variabel BP bernilai positif. Hal ini menjelaskan bahwa pada saat biaya produksi mengalami kenaikan maka harga jual yang ditetapkan perusahaan juga akan naik, begitupun sebaliknya jika biaya produksi mengalami penurunan, maka harga jual yang ditetapkan juga akan lebih rendah. Kenaikan harga biaya produksi sebesar 1 rupiah akan meningkatkan harga jual sebesar 1,477 rupiah.
- Sama halnya dengan koefisien regresi variabel L yang juga bernilai positif. Ini menjelaskan bahwa pada saat laba atau keuntungan yang ditetapkan oleh perusahaan semakin naik akan mengakibatkan harga jual semakin tinggi, sebaliknya jika laba atau keuntungan yang ditetapkan perusahaan menurun maka harga jual yang ditetapkan juga akan lebih rendah. Kenaikan laba sebesar 1 rupiah akan meningkatkan harga jual sebesar 0,589 rupiah.
- Biaya produksi dan besaran laba yang ditetapkan perusahaan berpengaruh signifikan terhadap penentuan harga jual baik secara simultan (bersama-sama) maupun secara parsial (terpisah).
- Biaya produksi dan laba yang ditetapkan perusahaan memiliki proporsi pengaruh yang sangat besar terhadap penentuan harga jual yakni sebesar 99,7 %.
- Penentuan harga jual juga dipengaruhi oleh factor lainnya, namun proporsinya sangat kecil yakni hanya 0,3 %
Demikian contoh dan pembahasan terkait
penggunaan analisis regresi linear dengan menggunakan SPSS. Semoga tulisan ini
dapat membantu banyak calon peneliti terutama mahasiswa dalam menyelesaikan
tugas akhirnya dan menjadi amal jariyah buat penulis. Terima Kasih
Silahkan download versi PDF nya DISINI
Silahkan download versi PDF nya DISINI
Tags:
Statistika
Olah Data SPSS, AMOS, LISREL
BalasHapusEVIEWS, SMARTPLS, GRETL, STATA, MINITAB dan DEAP 2.1
WhatsApp : +6285227746673
IG : @olahdatasemarang
Dalam teknik analisis ANOVA dua jalur: ada pengaruh utama (masing-masing varibel bebas/moderator) terhadap variabel terikat dan ada pengaruh interksi kedua variabel bebas terhadap variabel terikat. Jika hasil menunjukkan tidak ada pengaruh interaksi kedua variabel bebas terhadap variabel terikat, bagaimana kita menyimpulkannya? Terima kasih.
BalasHapusMengatasi Data Tidak Normal Dengan Central Limit Theorem (CLT)
BalasHapusApabila Data Tidak Normal Bisa Memakai Central Limit Theorem (CLT)
Sebagai Pendukung Kami Berikan Literatur Berupa Penelitian-Penelitian
Sebelumnya Sebanyak 20 Buah Penelitian
Bagi Yang Membutuhkan Bisa Klik Dibawah Ini Untuk Unduh Literatur Tersebut
https://s.id/UjiCLT
Dalam teknik analisis ANOVA dua jalur: ada pengaruh utama (masing-masing varibel bebas/moderator) terhadap variabel terikat dan ada pengaruh interksi kedua variabel bebas terhadap variabel terikat. Jika hasil menunjukkan tidak ada pengaruh interaksi kedua variabel bebas terhadap variabel terikat, bagaimana kita menyimpulkannya? Terima kasih.
BalasHapus