SlideShare a Scribd company logo
Analisis Regresi
MAGISTER MANAGEMENT PROGRAM
UNIVERSITAS KOMPUTER INDONESIA
Dr. Herman S. MBA
ANALISIS REGRESI
• ANALISIS REGRESI ADALAH SUATU CARA
STATISTIK UNTUK MELAKUKAN ESTIMASI
(PERKIRAAN) MENGENAI HUBUNGAN,
ANTARA DEPENDENT VARIABEL DAN SATU
ATAU LEBIH VARIABEL INDEPENDENT
LAINNYA SECARA KUANTITATIF.
ANALISIS REGRESI
• Analisis Regresi adalah adalah teknik analisis
statistik dan modeling yang paling sering
digunakan.
• Secara umum, menggunakan sebuah model
response variable (Y) sebagai fungsi dari satu atau
lebih variabel penggerak (X1, X2, ..., Xp).
• Hubungannya dapat dinyatakan sebagai berikut:
• Simpel Regression: bila terdapat satu variabel
independent , Yi = 0 + 1Xatau
• Multipel atau multivariate Regression: bila
terdapat lebih dari satu variabel independent,
Yi = 0 + 1X1i + 2X2i + ... + pXpi + 
• Symbol error ( term adalah suatu
“random error term” dan dapat
menggambarkan adanya variabel
lain yang belum dimasukan dalam
hubungan tersebut.
Symbol  pada Analisis Regresi
• Error berdistribusi secara normal
• Mean = expected value = 0
• Variance 2
= constant, untuk setiap
waktu dan setiap X, tidak
bergantung pada variabel yang ada.
• Error independent satu dengan
lainnya
Asumsi-asumsi ( term pada
Analisis Regresi
Scatter plots
• Analisis Regresi memerlukan data kuantitatif
(interval atau ratio).
• Jika menggunakan variabel kategori (tipe
nominal atau ordinal) maka perlu diubah ke
bentuk numerik dengan memberi value, misal
1=pria, 2=wanita.
• Untuk melihat apakah data yang ada cocok
dengan model regresi, sebaiknya lakukan
analisis scatter plot.
• Kenapa?
– Analisis Regresi menggunakan asumsi hubungan
yang linear. Jika hubungannya kuadratik atau tidak
ada kaitannya maka menjadi tidak tepat.
Tipe hubungan
Contoh
Hubungan antara penjualan dan advertising:
advertising dapat merupakan independent variable dan sales sebagai
dependent variable.
Pertama, carilah data untuk menganalisis hubungan antara sales and
advertising, lalu buatlah model
Sales = 0 + 1 (Advertising)
Setelah melakukan estimasi 0 dan 1 ,kemudian kita lihat hubungan
antara ramalan penjualan dan tingkat advertising.
Berapa banyak penjualann yang akan kita hasilkan jika kita melakukan
advertising sejumlah biaya tertentu.
Scatter plot
15.0 20.0 25.0 30.0 35.0
Percent of Population 25 years and Over with Bachelor's Degree or More,
March 2000 estimates
20000
25000
30000
35000
40000
P
erso
n
al
In
co
m
e
P
er
C
ap
ita,
cu
rren
t
d
o
llars,
1999
Percent of Population with Bachelor's Degree by Personal Income Per Capita
•Gambar disamping
menunjukkan hubungan
yang linear.
•Berkorelasi positif.
•Kenaikan jumlah sarjana
meningkatkan jumlah
pendapatan perkapita.
Regression Line
15.0 20.0 25.0 30.0 35.0
Percent of Population 25 years and Over with Bachelor's Degree or More,
March 2000 estimates
20000
25000
30000
35000
40000
Personal
Income
Per
Capita,
current
dollars,
1999
Percent of Population with Bachelor's Degree by Personal Income Per Capita
R Sq Linear = 0.542
•Regression line adalah suatu
garis lurus yang sangat baik
untuk menjelaskan keterkaitan
antar titik dan dapat
digunakan untuk menjelaskan
hubungan antar variabel.
•Jika semua titik2 berada
sepanjang garis lurus kita
memiliki mean 0 berarti
relationshipnya sempurna.
Hal-hal yang perlu diperhatikan
• Regressi fokus pada hubungan, bukan
penyebab.
• Hubungan/keterkaitan adalah prasyarat
penting untuk menduga penyebab, tetapi juga:
1. Variabel independent waktunya harus mendahului
variabel dependent.
2. Kedua variabel secara teoritis harus memiliki
keterkaitan,
3. Pertentangan antara variabel independent harus
dihilangkan.
ASUMSI ANALISIS REGRESI LINEAR
• Distribusi data adalah normal dan hubungan
antara variabel dependen dengan masing2
variabel independent adalah linear.
• Tidak adanya multikolinearites,
heteroskesdastisitas, dan autokorelasi pada
model regresi.
Tabel Regresi
•Koefisien regresi
bukanlah indikator yang
baik untuk menunjukkan
kekuatan suatu
hubungan.
•Dua scatter plots
dengan penyebaran yang
sangat berbeda dapat
menghasilkan garis
regresi yang sama.
15.0 20.0 25.0 30.0 35.0
Percent of Population 25 years and Over with Bachelor's Degree or More,
March 2000 estimates
20000
25000
30000
35000
40000
Personal
Income
Per
Capita,
current
dollars,
1999
Percent of Population with Bachelor's Degree by Personal Income Per Capita
R Sq Linear = 0.542
0.00 200.00 400.00 600.00 800.00 1000.00 1200.00
Population Per Square Mile
20000
25000
30000
35000
40000
Personal
Income
Per
Capita,
current
dollars,
1999
Percent of Population with Bachelor's Degree by Personal Income Per Capita
R Sq Linear = 0.463
Koefisien Regresi
• Koefisien regresi adalah kemiringan garis
regresi yang menunjukkan pola hubungan
antar variabel.
• Berapa besar perubahan variabel2
independent dikaitkan dengan besarnya
perubahan yang terjadi pada variabel
dependent.
• Semakin besar perubahan koefisien regresi
semakin besar perubahannya.
Pearson’s r
• Untuk memperkirakan keeratan hubungan
antar variabel cluster dari suatu regresi dapat
digunakan r Pearson. Semakin besar
hubungannya semakin tinggi.
• Pearson’s r dinyatakan dalam range -1 sampai
+ 1, dimana 0 artinya tidak memiliki hubungan
linear sama sekali.
•KOEFISIEN KORELASI PEARSON
  
   











n
1
i
2
i
n
1
i
2
i
n
1
i
i
i
Y
Y
.
X
X
Y
Y
X
X
r
-1 -0,25 0,25 1
-0,75 0 0,75
1
r
1 


ERAT
negati
f
ERAT
positif
Analysis Regresi Linier sederhana part 1
• Pendugaan terhadap koefisien regresi:
 b0 penduga bagi 0 dan b1 penduga bagi 1
Bagaimana Pengujian terhadap model regresi ??
• parsial (per koefisien)  uji-t
• bersama  uji-F (Anova)
Bagaimana menilai kesesuaian model ??
R2
(Koef. Determinasi: % keragaman Y yang mampu dijelaskan oleh
X)
x
b
y
b
n
x
x
n
y
x
xy
b
1
0
2
2
1
)
(
)
)(
(





 
 

Metode
Kuadrat Terkecil
Membaca Tabel
Model Summary
.736a .542 .532 2760.003
Model
1
R R Square
Adjusted
R Square
Std. Error of
the Estimate
Predictors: (Constant), Percent of Population 25 years
and Over with Bachelor's Degree or More, March 2000
estimates
a.
•Ketika kita run suatu analisi regresi dengan SPSS akan diperoleh 3
tabel. Masing2 tabel menjelaskan tentang keterkaitan yang ada.
•Yang pertama adalah Model Summary.
•R adalah koefisien korelasi Product Moment Pearson
•Untuk contoh ini R adalah .736
•R square menunjukkan besarnya pengaruh variabel independen
terhadap variabel dependent.
R-Square
Model Summary
.736a .542 .532 2760.003
Model
1
R R Square
Adjusted
R Square
Std. Error of
the Estimate
Predictors: (Constant), Percent of Population 25 years
and Over with Bachelor's Degree or More, March 2000
estimates
a.
•R-Square adalah variansi proporsi dari variabel dependent
(income per capita) yang dapat diprediksi variabel independent
(level of education).
•Hasil ini menunjukkan bahwa 54.2% dari variabel pendapatan
dapat diprediksi dari variabel pendidikan. Catatan: ini
merupakan pengukuran secara umum terhadap tingkat
kekuatan hubungan, dan tidak menggambarkan tingkat
pengaruh yang khusus antara variabel independent terhadap
variabel dependent.
•R-Square disebut juga sebagai koefisien keterkaitan.
Adjusted R-square
Model Summary
.736a .542 .532 2760.003
Model
1
R R Square
Adjusted
R Square
Std. Error of
the Estimate
Predictors: (Constant), Percent of Population 25 years
and Over with Bachelor's Degree or More, March 2000
estimates
a.
Sebagai predictors tambahan dari suatu model, masing2 predictor akan
menerangkan beberapa variansi dari suatu variabel dependen karena suatu
perubahan.
Kita dapat tetap menambahkan predictors kedalam model untuk meningkatkan
kemampuan predictor menjelaskan variabel dependen, meskipun beberapa
kenaikan R-square dapat disebabkan oleh variasi sampel.
Adjusted R-square merupakan usaha untuk mendapatkan nilai yang lebih
mendekati keadaan sebenarnya untuk mengestimasi R-squared untuk suatu
populasi. Nilai R-square .542, sementara nilai Adjusted R-square adalah .532. Tidak
ada perbedaan yang berarti karena hanya pengamatan pada satu variabel
independent.
Ketika jumlah pengamatan kecil dan jumlah prediktor besar, maka akan ada
perbedaan yang besar pada R-square &adjusted R-square.
Sebalimnya, jika jumlah pengamatan sangat besar dibandingkan dengan jumlah
prediktor, nilai dari R-square dan adjusted R-square akan mendekati sama.
ANOVA
ANOVAb
4.32E+08 1 432493775.8 56.775 .000a
3.66E+08 48 7617618.586
7.98E+08 49
Regression
Residual
Total
Model
1
Sum of
Squares df Mean Square F Sig.
Predictors: (Constant), Percent of Population 25 years and Over with Bachelor's
Degree or More, March 2000 estimates
a.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
b.
•p-value dikaitkan dengan F value adalah sangat kecil (0.0000).
•Nilai/values ini digunakan untuk menjawab pertanyaan “apakah variabel
independent dapat dipercaya untuk memprediksi variable dependent?".
•p-value dibandingkan terhadap alpha level (biasanya 0.05) dan, jika lebih
kecil, dapat disimpulkan bahwa “Ya, variabel2 independent dapat dipercaya
untuk memprediksi variable dependent".
•Jika p-value lebih besar dari 0.05, dapat disimpulkan bahwa variabel2
independent secara statistik tidak memiliki hubungan yang signifikan dengan
dependent variable, atau grup variabel independent tersebut tidak dapat
reliabel untuk memprediksi dependent variable.
Coefficients
Coefficientsa
10078.565 2312.771 4.358 .000
688.939 91.433 .736 7.535 .000
(Constant)
Percent of Population
25 years and Over
with Bachelor's
Degree or More,
March 2000 estimates
Model
1
B Std. Error
Unstandardized
Coefficients
Beta
Standardized
Coefficients
t Sig.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
a.
B – adalah nilai dari persamaan regresi untuk memprediksi
keterkaitan antara variabel independent terhadap variabel
dependent.
Disebut unstandardized coefficients karena diukur
berdasarkan unit sebenarnya. Juga, koefisien B tidak dapat
dibandingkan satu dengan yang lainnya untuk memperkirakan
nyang mana yang lebih berpengaruh dalam suatu model, karena
komponen tersebut diukur dengan skala yang berbeda.
Coefficients
Coefficientsa
13032.847 1902.700 6.850 .000
517.628 78.613 .553 6.584 .000
7.953 1.450 .461 5.486 .000
(Constant)
Percent of Population
25 years and Over
with Bachelor's
Degree or More,
March 2000 estimates
Population Per
Square Mile
Model
1
B Std. Error
Unstandardized
Coefficients
Beta
Standardized
Coefficients
t Sig.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
a.
•Tabel ini memperlihatkan dua variabel dan
menunjukkan bagaimana perbedaan dari nilai B.
Oleh karena itu perlu dilihat standardized Beta
untuk melihat perbedaannya.
Coefficients
Coefficientsa
10078.565 2312.771 4.358 .000
688.939 91.433 .736 7.535 .000
(Constant)
Percent of Population
25 years and Over
with Bachelor's
Degree or More,
March 2000 estimates
Model
1
B Std. Error
Unstandardized
Coefficients
Beta
Standardized
Coefficients
t Sig.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
a.
•Beta – sebagai standardized coefficients.
•Koefisien ini yang diperoleh jika semua variabel distandarkan dengan regresi
baik dependent maupun independent variabel, dan run regresi.
•Dengan menstandarkan variablel2 sebelum running regresi, kita
menempatkan semua variabel pada skala yang sama , dan kita dapat
membandingkan besaran koefisien untuk melihat mana yang memiliki
pengaruh yang lebih besar.
•Dapat juga dilihat bahwa semakin besar beta semakin besar t-values.
Konversi b ke Beta
Income per capita
Independent variables b Beta
Percent population with BA 688.939 .736
R2
.542
Number of Cases 49
Level anlisis Regressi dari Education oleh Income per capita
Bagian Persamaan Regresi
• b menggambarkan kemiringan garis
– Diperoleh dengan perbandingan antara
perubahan variabel dependent oleh perubahan
variabel independent.
– Residual adalah perbedaan antara nilai aktual Y
dan jumlah perhitungan.
– Residual menggambarkan besarnya kesalahan
prediksi nilai y dari masing2 fungsi X.
Perbandingan dua variabel
 Analisis Regresi bermanfaat untuk
membandingkan dua variabel apakah
pengendalian suatu variabel independent
mempengaruhi model yang ada.
 Untuk model variabel independent pertama,
pendidikan, argumenya adalah penduduk
semakin terdidik akan mendapatkan
pembayaran yang lebih tinggi dalam pekerjaan,
menghasilakan tingkat pendapatan perkapita
yang semakin tinggi.
 Variabel independent kedua juga sama karena
harapan mendapatkan pekerjaan dengan
pembayaran yang lebih baik, dan selanjutnya
mendapat kesempatan yang lebih besar untuk
tinggal dikota dari pada di desa.
Single
Model Summary
.849a .721 .709 2177.791
Model
1
R R Square
Adjusted
R Square
Std. Error of
the Estimate
Predictors: (Constant), Population Per Square Mile,
Percent of Population 25 years and Over with
Bachelor's Degree or More, March 2000 estimates
a.
ANOVAb
5.75E+08 2 287614518.2 60.643 .000a
2.23E+08 47 4742775.141
7.98E+08 49
Regression
Residual
Total
Model
1
Sum of
Squares df Mean Square F Sig.
Predictors: (Constant), Population Per Square Mile, Percent of Population 25 years
and Over with Bachelor's Degree or More, March 2000 estimates
a.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
b.
Coefficientsa
13032.847 1902.700 6.850 .000
517.628 78.613 .553 6.584 .000
7.953 1.450 .461 5.486 .000
(Constant)
Percent of Population
25 years and Over
with Bachelor's
Degree or More,
March 2000 estimates
Population Per
Square Mile
Model
1
B Std. Error
Unstandardized
Coefficients
Beta
Standardized
Coefficients
t Sig.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
a.
Model Summary
.736a .542 .532 2760.003
Model
1
R R Square
Adjusted
R Square
Std. Error of
the Estimate
Predictors: (Constant), Percent of Population 25 years
and Over with Bachelor's Degree or More, March 2000
estimates
a.
ANOVAb
4.32E+08 1 432493775.8 56.775 .000a
3.66E+08 48 7617618.586
7.98E+08 49
Regression
Residual
Total
Model
1
Sum of
Squares df Mean Square F Sig.
Predictors: (Constant), Percent of Population 25 years and Over with Bachelor's
Degree or More, March 2000 estimates
a.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
b.
Coefficientsa
10078.565 2312.771 4.358 .000
688.939 91.433 .736 7.535 .000
(Constant)
Percent of Population
25 years and Over
with Bachelor's
Degree or More,
March 2000 estimates
Model
1
B Std. Error
Unstandardized
Coefficients
Beta
Standardized
Coefficients
t Sig.
Dependent Variable: Personal Income Per Capita, current dollars, 1999
a.
Multiple
Multiple
Regression
Regression
Contoh: Dik Data Delivery Time
Time No. of
Cases
Distance Time No. of
Cases
Distance
16.68 7 560 19.75 6 462
11.50 3 220 24.00 9 448
12.03 3 340 29.00 10 776
14.88 4 80 15.35 6 200
13.75 6 150 19.00 7 132
18.11 7 330 9.50 3 36
8.00 2 110 35.10 17 770
17.83 7 210 17.90 10 140
79.24 30 1460 52.32 26 810
21.50 5 605 18.75 9 450
40.33 16 688 19.83 8 635
21.00 10 215 10.75 4 150
13.50 4 255
Scatter Plot
Scatter Plot
Scatter Plot
Langkah-langkah Analisis Regresi dengan SPSS
• Klik ganda icon SPSS pada desktop atau klik pada start menu untuk
mengaktifkan program SPSS
• Setalah muncul kotak dialog SPSS for Windows maka klik Cancel (kalau
ingin membuat data baru)
• Pada halaman SPSS data editor klik Variable View
• Untuk memasukkan variable langkah sebagai berikut :
• Ketik y pada kolom Name, pada Label ketik VAR independent (Y), dan
pada kolom Measure pilih Scale
• Pada kolom Name dibawahnya ketik x1, pada Label ketik Var dependen 1
(X1), dan pada kolom Measure pilih Scale
• Padakolom Name dibawahnya ketik x2, pada Label ketik Var dependen 2
(X2), dan pada kolom Measure pilih Scale (Utk 2 var independent)
• Pada kolom Name dibawahnya ketik x3, pada Label ketik Var dependen 3
(X3), dan pada kolom Measure pilih Scale (Utk 2 var independent)
• Kolom-kolom lainnya biarkan isian default
• Setalah selesai memasukkan variable maka selanjutnya klik Data View
• Isikan data y, x1,x2 dan x3 sesuai dengan variabelnya
Langkah-langkah Analisis Regresi dengan SPSS
• Setelah selesai mengisikan data maka selanjutnya klik :
• Analyze  Regression  Linear
• Setelah itu kemudian akan terbuka kotak dialog Linear Regression.
Pindahkan variabel (Y) ke kotak Dependent, kemudian pindahkan variabel
(X1), (X2), dan (X3) ke kotak Independen.
• Klik tombol Statistics, selanjutnya akan terbuka kotak dialog Linear
Regression Statistics. Pilih Collinearity diagnostics untuk menguji
multikolinearitas, dan pilih Durbin-Watson untuk menguji autokorelasi.
• Klik tombol Continue. Maka akan kembali ke kotak dialog sebelumnya.
• Untuk uji heteroskedastisitas maka klik Plots terbuka, selanjutnya kotak
dialog Linear Regression : Plots terbuka, masukkan *ZRESID (Standardized
Residual) ke kotak Y, dan masukkan *ZPRED (Standardized Predicted Value)
ke kotak X. Selanjutnya pilih Normal probability plot untuk uji normalitas.
• Klik Continue, selanjutnya akan kembali ke kotak dialog sebelumnya.
• Klik OK.
Melakukan Regresi
Melakukan Regresi
Output Regresi
Diagnosa Regresi
• Residual Analysis
–Normal Probability Plot
• Gunakan deteksi Normality of Error
–Plot Residual terhadap Fitted Value
• Deteksi adanya Heteroscedasticity
–Plot of Residual terhadap Regressors
• Gunakan Linearity of Regressors
Construction of Residual Plots
The Normal Probability Plot
Plot Residuals terhadap Fitted Value
Autokorelasi
• Autokorelasi adalah keadaan dimana terjadinya korelasi dari residual untuk
pengamatan satu dengan pengamatan lain yang disusun menurut runtun
waktu.Model regresi yang baik adalah mensyaratkan tidak adanya masalah
autokorelasi. Dampak yang diakibatkan dengan adanya autokorelasi yaitu
varian sampel tidak dapat menggambarkan varian populasinya.
• Untuk mendeteksi ada tidaknya autokorelasi dengan dilakukan uji Durbin-
Watson dengan prosedur sebagai berikut :
• Menentukan hipotesis nol dan hipotesis alternatif
• H0 : tidak terjadi autokorelasi
• Ha : Terjadi autokorelasi
• b. Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,05
• c. Menentukan nilai d (Durbin-Watson)
• d. Menentukan nilai dL dan dU
• Nilai dL dan dU dapat dilihat pada table Durbin-Watson pada signifikansi 0,05,
n = 24 (misal) dan k = 3 (misal) ( n adalah julah data dan k adalah jumlah
variable independen ). Didapat dL = 1,101 dan dU = 1,656. Jadi dapat dihitung
nilai 4-dU = 2,344 dan 4-dL = 2,899.
• Pengambilan keputusan
– dU < d < 4-dU maka H0 diterima ( tidak terjadi autokorelasi )
– d < dL atau d > 4-dL maka H0 ditolak (terjadi autokorelasi )
– dL < d < dL atau 4-dU < d < 4-dL maka tidak ada kesimpulan
Menghilangkan Autocorrelation
• Autocorrelation dapat dihilangkan dengan
menggunakan pemodelan
*
1
t t t
Y Y rY
 
Contoh – Lanjutan
Menghilangkan Autocorrelation
 
*
1
1.170
2 1 1 2
1 1.170 2 0.415
0.415
t t t
d
d r r d
r r
Y Y Y

    
   
 
Creation of Lagged Variable
Menghilangkan Autokorelasi
Contoh – Lanjutan
Multicollinearity
Hubungan Linear atau mendekati Linear
diantara variables independent.
Jika hubungannya sempurna maka
parameter tidak memungkinkan
menggunakan metoda Classical Least
Squares.
Multicollinearity
• Multikolinearitas adalah keadaan dimana antara dua variable independen
atau lebih pada model regresi terjadi hubungan linier yang sempurna atau
mendekati sempurna. Model regresi yang baik mensyaratkan tidak adanya
masalah Multikolinearitas. Dampak yang diakibatkan dengan adanya
Multikolinearitas antara lain yaitu :
– Nilai standart error untuk masing-masing koefisien menjadi tinggi, sehingga t
hitung menjadi rendah
– Standart error of estimate akan semakin tinggi dengan bertambahnya variabel
independen
– Pengaruh masing-masing variable independen sulit dideteksi
•
• Untuk mendeteksi ada tidaknya multikolinearitas dengan melihat nilai
tolerance dan VIF. Semakin kecil nilai tolerance dan semakin besar VIF
maka semakin mendekati terjadinya masalah multikolinearitas. Dalam
kebanyakan penelitian menyebutkan bahwa jika tolerance lebih dari 0,1
dan VIF kurang dari 10 maka tidak terjadi multikolinearitas.
• Dari table coefficients dapat diketahui bahwa nilai Tolerance dari ketiga
variable independen lebih dari 0,1 dan VIF kurang dari 10, jadi dapat
disimpulkan bahwa dalam model regresi tidak terjadi masalah
multikolinearitas.
Diagnosis Regresi : Multicollinearity
 
2
2 2
1 1 ; 1
10 ; 0.1
; 100
j j
j
j max j j
ji i
ij
j
VIF R Tol VIF
VIF Tol
CI CI
t
VDP
VIF
 


   
  
  
  
Contoh – Lanjutan
Contoh – Lanjutan
Contoh – Lanjutan
Contoh - Lanjutan
Uji F
• Uji F atau uji koefisien regresi secara serentak, yaitu untuk mengetahui pengaruh variabel independen
secara serentak terhadap variabel dependen, apakah pengaruhnya signifikan atau tidak.
• Tahap-tahap pengujian sebagai berikut :
• Menentukan hipotesis nol dan hipotesis alternative
• H0 : b1 = b2 = b3 = b4 = 0
• Artinya variabel independent (x1, x2, dan x3)secara serentak tidak berpengaruh terhadap Penjualan
• Ha : b1 ≠ b2 ≠ b3 ≠ b4 ≠ 0
• Artinya variabel independen secara serentak berpengaruh terhadap Penjualan
• Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,05
• F hitung dan F kritis
• F hitung adalah nilai F hasil hitungan SPSS (lihat table ANOVA)
• F kritis dapat dicari pada table statistic pada signifikansi 0,05 df1 = k-1 atau 4-1 = 3, dan df2 = n-k atau 24-4 =
20 (k adalah jumlah variabel). Didapat F kritis adalah 3,098 (misal)
• Cara lain mencari F kritis yaitu menggunakan program Ms Excel. Pada cell kosong ketik FINV (0,05,3,20)
kemudian tekan Enter
• Pengambilan keputusan
• F hitung < F kritis jadi H0 diterima
• F hitung > F kritis jadi H0 ditolak
• Bila F hitung > F table, hipotesis nol ditolak, kesimpulannya yaitu var independent secara secara serentak
berpengaruh terhadap var dependen
Uji T
• Uji t untuk mengetahui pengaruh variabel independen secara parsial terhadap variabel dependen,
apakah pengaruhnya signifikan atau tidak.
• Pengujian b1 (x1)
• Tahap-tahap pengujian sebagai berikut :
• Menetukan hipotes nol dan hipotesis alternatif
• H0 : b1 = 0
• Artinya var independen (x1)tidak berpengaruh terhadap var dependen (Y)
• Ha : b1 ≠ 0
• Artinya X1 berpengaruh terhadap Y
• Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,005
• t hitung dan t kritis
• t hitung dapat dilihat pada table Coefficients
• t kritis dapat dicari pada table statistik pada signifikansi
• 0,05/2 = 0,025 (uji 2 sisi) dengan df = n-k-1 atau 24-3-1 = 20 (k adalah jumlah variabel independen).
Didapat t kritis adalah 2,086.
• Cara lain mencari t kritis yaitu menggunakan program Excel. Pada cell kosong ketik TINV (0.05,20)
kemudian tekan Enter
• Pengambilan keputusan
• Kalau t hitung < t kritis jadi H0 diterima, t hitung > t kritis jadi H0 ditolak
• Bila diketahui bahwa t hitung > kritis, hipotesis nol ditolak, kesimpulannya yaitu X1 berpengaruh
terhadap Y.
Uji Normalitas
• Syarat dalam analisi parametric yaitu distribusi data harus normal. Pengujian
menggunakan uji Kolmogorov-Smirnov ( Analisis Explore ) untuk mengetahui
apakah distribusi data pada tiap-tiap variable normal atau tidak.
• Langkah-langkah analisis explore adalah sebagai berikut :
• a) Klik Analyze Descriptive Statistics Explore
• Setelah itu akan terbuka kotak dialog Explore. Pindahkan semua variable
ke kotak Dependent List. Pada Display pilih Plots
• b) Klik tombol Plots, selanjutnya akan terbuka kotak dialog Explore : Plots.
Pilih Normality plots with test.
• c) Klik tombol Continue. Maka akan kembali ke kotak dialog sebelumnya.
• d) Klik OK
• Kriteria pengambilan keputusan yaitu jika signifikansi > 0,05 maka data berdistribusi
normal, dan jika Signifikansi < 0,05 maka data tidak berdistribusi normal.
• Kriteria pengambilan keputusan yaitu sebagai berikut :
• Jika data menyebar disekitar garis diagonal dan mengikuti arah diagonal, maka
model regresi memenuhi asumsi normalitas.
• Jika data menyebar jauh dari garis diagonal atau tidak mengikuti arah diagonal,
maka model regresi tidak memenuhi asumsi normalitas.
Tabel Durbin Watson
Dengan Tingkat Signifikansi 0.05
N k = 1 ikansi k = 3
dL dU dL dU dL dU
10 0.879 1.320 0.697 1.641 0.525 2.016
11 0.927 1.324 0.658 1.604 0.595 1.928
12 0.971 1.331 0.812 1.579 0.658 1.864
13 1.010 1.340 0.861 1.562 0.715 1.816
14 1.045 1.350 0.905 1.551 0.767 1.779
15 1.077 1.361 0.946 1.543 0.814 1.750
16 1.106 1.371 0.982 1.539 0.857 1.728
17 1.133 1.381 1.015 1.536 0.897 1.710
18 1.158 1.391 1.046 1.535 0.933 1.696
19 1.180 1.401 1.074 1.536 0.967 1.685
20 1.210 1.411 1.100 1.537 0.998 1.676
21 1.221 1.420 1.125 1.538 1.026 1.669
22 1.239 1.429 1.147 1.541 1.053 1.664
23 1.257 1.437 1.168 1.543 1.078 1.660
24 1.273 1.446 1.188 1.546 1.101 1.656
25 1.288 1.454 1.206 1.550 1.123 1.654
26 1.302 1.461 1.224 1.553 1.143 1.652
27 1.316 1.469 1.240 1.556 1.162 1.651
28 1.328 1.476 1.255 1.560 1.181 1.650
29 1.341 1.483 1.270 1.563 1.198 1.650
30 1.352 1.489 1.284 1.567 1.214 1.650
Analysis Regresi Linier sederhana part 1

More Related Content

PPT
Analysis Regresi Linier Berganda - Analysis
PPT
analisis regresi sederhana dan analisis regresi berganda
PPT
Analisis Regresi (Regresi linear sederhana dan berganda).ppt
PPTX
1.Regresi (1).pptx
PDF
Analisis_Regresi__Linier_Sederhana (1).pdf
PPTX
Analisis-Regresi-Dan-Korelasi statistika terapan.pptx
PPT
8. korelasi, regresi linier sederhana dan berganda
PPT
Analisa Regresi Korelasi Sederhana.ppt
Analysis Regresi Linier Berganda - Analysis
analisis regresi sederhana dan analisis regresi berganda
Analisis Regresi (Regresi linear sederhana dan berganda).ppt
1.Regresi (1).pptx
Analisis_Regresi__Linier_Sederhana (1).pdf
Analisis-Regresi-Dan-Korelasi statistika terapan.pptx
8. korelasi, regresi linier sederhana dan berganda
Analisa Regresi Korelasi Sederhana.ppt

Similar to Analysis Regresi Linier sederhana part 1 (20)

PPTX
Konsep dasar Ekonometrika = Pertemuan 1 pptx
PDF
Pertemuan 1 analisis regresi
PPTX
Teknik Analisis Data.pptx
PPTX
PPT STATISTIK Kelommmmmmmmmmmmpok 3.pptx
PPTX
Korelasi dan Regresi Sederhana. Aljabar linear
PPTX
KORELASI LINIER SEDERHANA DAN REGRESI LINIEAR.pptx
PPT
Materi ketiga materiMateri ketiga materi.ppt
DOCX
oggie alfriandi.docx
PPTX
defrijon korelasi product moment.pptx
PPTX
8 - eight meeting - Korelasi Product Moment.pptx
PPTX
STATISTIKA REGRESI kelas 112356865523256
PPT
regresi &korelasi
PPTX
Analisis regresi linier
PDF
Tugas RESUME UAS.pdf
PPTX
Analisis korelasi
PPT
REGRESI-LINEAR-BERGANDA.ppt
PPTX
DEFRIJON REGRESI GANDA 5A.pptx
PDF
Tugas probstat paper analisa regresi dan korelasi by muhammad kennedy (120402...
PPT
Metodologi Penelitian - Statistik Deskriptif
DOC
Korelasi dan regresi sederhana
Konsep dasar Ekonometrika = Pertemuan 1 pptx
Pertemuan 1 analisis regresi
Teknik Analisis Data.pptx
PPT STATISTIK Kelommmmmmmmmmmmpok 3.pptx
Korelasi dan Regresi Sederhana. Aljabar linear
KORELASI LINIER SEDERHANA DAN REGRESI LINIEAR.pptx
Materi ketiga materiMateri ketiga materi.ppt
oggie alfriandi.docx
defrijon korelasi product moment.pptx
8 - eight meeting - Korelasi Product Moment.pptx
STATISTIKA REGRESI kelas 112356865523256
regresi &korelasi
Analisis regresi linier
Tugas RESUME UAS.pdf
Analisis korelasi
REGRESI-LINEAR-BERGANDA.ppt
DEFRIJON REGRESI GANDA 5A.pptx
Tugas probstat paper analisa regresi dan korelasi by muhammad kennedy (120402...
Metodologi Penelitian - Statistik Deskriptif
Korelasi dan regresi sederhana
Ad

Recently uploaded (19)

PPTX
PRESNTASI pembangunan perumahan komersil dua lantai
PPTX
materi abimtek aplikasi ehdw bagi kader pembangunan manusia tahun 2025
PPTX
Materi Kesiapan Tahapan Pemungutan dan Penghitungan Suara Pemilihan Ulang Tah...
DOCX
proposal nurul 2.docx Fix dokumen yang penting
PDF
811848831-PPT-TES-DESKRIPShhhhhhhhhI.pdf
PDF
pengenalan_Iot perangkatcerdasmasdepan.pdf
PPTX
Presentasi Pengenalan Sel smp kelas VII semester I.pptx
PDF
c3oYi7NNpW3omVenymVtXLtqfSi2hzugUlVYbGlQ.pdf
PPT
Modul-Projek-JAJANAN-PASAR-YANG-MENGHASILKAN-RUPIAH-Fase-C.ppt
PPTX
ANALISIS DATA FUNGSI INFORMATIKA SMP.pptx
PPTX
Pelatihan_Model_Pembinaan_Gen_Z_Dasar_Menengah.pptx
PPTX
Introduction FastAPI for Professional and Student
DOCX
PROPOSAL PENGARUH PEMBERIAN MIKRONUTRIEN TERHADAP PENINGKATAN INDEKS MASA TUB...
PPTX
Bahan bacaan Informatika pola pikir bertumbuh.pptx
PPTX
PERENCANAAN MEP PERUM.MULTI CIPTA PERMAI_Type 36.pptx
PPTX
EFEKTIVITAS EKSTRAK DAUN INDIGOFERA.pptx
PDF
6754aa176b39b (1).pdf data analisis acara
PPTX
Gagal Ginjal Akut GHINA SELVIRA .pptx
PPTX
Flowchart Pengaplikasian Sistem Arduino.pptx
PRESNTASI pembangunan perumahan komersil dua lantai
materi abimtek aplikasi ehdw bagi kader pembangunan manusia tahun 2025
Materi Kesiapan Tahapan Pemungutan dan Penghitungan Suara Pemilihan Ulang Tah...
proposal nurul 2.docx Fix dokumen yang penting
811848831-PPT-TES-DESKRIPShhhhhhhhhI.pdf
pengenalan_Iot perangkatcerdasmasdepan.pdf
Presentasi Pengenalan Sel smp kelas VII semester I.pptx
c3oYi7NNpW3omVenymVtXLtqfSi2hzugUlVYbGlQ.pdf
Modul-Projek-JAJANAN-PASAR-YANG-MENGHASILKAN-RUPIAH-Fase-C.ppt
ANALISIS DATA FUNGSI INFORMATIKA SMP.pptx
Pelatihan_Model_Pembinaan_Gen_Z_Dasar_Menengah.pptx
Introduction FastAPI for Professional and Student
PROPOSAL PENGARUH PEMBERIAN MIKRONUTRIEN TERHADAP PENINGKATAN INDEKS MASA TUB...
Bahan bacaan Informatika pola pikir bertumbuh.pptx
PERENCANAAN MEP PERUM.MULTI CIPTA PERMAI_Type 36.pptx
EFEKTIVITAS EKSTRAK DAUN INDIGOFERA.pptx
6754aa176b39b (1).pdf data analisis acara
Gagal Ginjal Akut GHINA SELVIRA .pptx
Flowchart Pengaplikasian Sistem Arduino.pptx
Ad

Analysis Regresi Linier sederhana part 1

  • 1. Analisis Regresi MAGISTER MANAGEMENT PROGRAM UNIVERSITAS KOMPUTER INDONESIA Dr. Herman S. MBA
  • 2. ANALISIS REGRESI • ANALISIS REGRESI ADALAH SUATU CARA STATISTIK UNTUK MELAKUKAN ESTIMASI (PERKIRAAN) MENGENAI HUBUNGAN, ANTARA DEPENDENT VARIABEL DAN SATU ATAU LEBIH VARIABEL INDEPENDENT LAINNYA SECARA KUANTITATIF.
  • 3. ANALISIS REGRESI • Analisis Regresi adalah adalah teknik analisis statistik dan modeling yang paling sering digunakan. • Secara umum, menggunakan sebuah model response variable (Y) sebagai fungsi dari satu atau lebih variabel penggerak (X1, X2, ..., Xp). • Hubungannya dapat dinyatakan sebagai berikut: • Simpel Regression: bila terdapat satu variabel independent , Yi = 0 + 1Xatau • Multipel atau multivariate Regression: bila terdapat lebih dari satu variabel independent, Yi = 0 + 1X1i + 2X2i + ... + pXpi + 
  • 4. • Symbol error ( term adalah suatu “random error term” dan dapat menggambarkan adanya variabel lain yang belum dimasukan dalam hubungan tersebut. Symbol  pada Analisis Regresi
  • 5. • Error berdistribusi secara normal • Mean = expected value = 0 • Variance 2 = constant, untuk setiap waktu dan setiap X, tidak bergantung pada variabel yang ada. • Error independent satu dengan lainnya Asumsi-asumsi ( term pada Analisis Regresi
  • 6. Scatter plots • Analisis Regresi memerlukan data kuantitatif (interval atau ratio). • Jika menggunakan variabel kategori (tipe nominal atau ordinal) maka perlu diubah ke bentuk numerik dengan memberi value, misal 1=pria, 2=wanita. • Untuk melihat apakah data yang ada cocok dengan model regresi, sebaiknya lakukan analisis scatter plot. • Kenapa? – Analisis Regresi menggunakan asumsi hubungan yang linear. Jika hubungannya kuadratik atau tidak ada kaitannya maka menjadi tidak tepat.
  • 8. Contoh Hubungan antara penjualan dan advertising: advertising dapat merupakan independent variable dan sales sebagai dependent variable. Pertama, carilah data untuk menganalisis hubungan antara sales and advertising, lalu buatlah model Sales = 0 + 1 (Advertising) Setelah melakukan estimasi 0 dan 1 ,kemudian kita lihat hubungan antara ramalan penjualan dan tingkat advertising. Berapa banyak penjualann yang akan kita hasilkan jika kita melakukan advertising sejumlah biaya tertentu.
  • 9. Scatter plot 15.0 20.0 25.0 30.0 35.0 Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates 20000 25000 30000 35000 40000 P erso n al In co m e P er C ap ita, cu rren t d o llars, 1999 Percent of Population with Bachelor's Degree by Personal Income Per Capita •Gambar disamping menunjukkan hubungan yang linear. •Berkorelasi positif. •Kenaikan jumlah sarjana meningkatkan jumlah pendapatan perkapita.
  • 10. Regression Line 15.0 20.0 25.0 30.0 35.0 Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates 20000 25000 30000 35000 40000 Personal Income Per Capita, current dollars, 1999 Percent of Population with Bachelor's Degree by Personal Income Per Capita R Sq Linear = 0.542 •Regression line adalah suatu garis lurus yang sangat baik untuk menjelaskan keterkaitan antar titik dan dapat digunakan untuk menjelaskan hubungan antar variabel. •Jika semua titik2 berada sepanjang garis lurus kita memiliki mean 0 berarti relationshipnya sempurna.
  • 11. Hal-hal yang perlu diperhatikan • Regressi fokus pada hubungan, bukan penyebab. • Hubungan/keterkaitan adalah prasyarat penting untuk menduga penyebab, tetapi juga: 1. Variabel independent waktunya harus mendahului variabel dependent. 2. Kedua variabel secara teoritis harus memiliki keterkaitan, 3. Pertentangan antara variabel independent harus dihilangkan.
  • 12. ASUMSI ANALISIS REGRESI LINEAR • Distribusi data adalah normal dan hubungan antara variabel dependen dengan masing2 variabel independent adalah linear. • Tidak adanya multikolinearites, heteroskesdastisitas, dan autokorelasi pada model regresi.
  • 13. Tabel Regresi •Koefisien regresi bukanlah indikator yang baik untuk menunjukkan kekuatan suatu hubungan. •Dua scatter plots dengan penyebaran yang sangat berbeda dapat menghasilkan garis regresi yang sama. 15.0 20.0 25.0 30.0 35.0 Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates 20000 25000 30000 35000 40000 Personal Income Per Capita, current dollars, 1999 Percent of Population with Bachelor's Degree by Personal Income Per Capita R Sq Linear = 0.542 0.00 200.00 400.00 600.00 800.00 1000.00 1200.00 Population Per Square Mile 20000 25000 30000 35000 40000 Personal Income Per Capita, current dollars, 1999 Percent of Population with Bachelor's Degree by Personal Income Per Capita R Sq Linear = 0.463
  • 14. Koefisien Regresi • Koefisien regresi adalah kemiringan garis regresi yang menunjukkan pola hubungan antar variabel. • Berapa besar perubahan variabel2 independent dikaitkan dengan besarnya perubahan yang terjadi pada variabel dependent. • Semakin besar perubahan koefisien regresi semakin besar perubahannya.
  • 15. Pearson’s r • Untuk memperkirakan keeratan hubungan antar variabel cluster dari suatu regresi dapat digunakan r Pearson. Semakin besar hubungannya semakin tinggi. • Pearson’s r dinyatakan dalam range -1 sampai + 1, dimana 0 artinya tidak memiliki hubungan linear sama sekali.
  • 16. •KOEFISIEN KORELASI PEARSON                   n 1 i 2 i n 1 i 2 i n 1 i i i Y Y . X X Y Y X X r -1 -0,25 0,25 1 -0,75 0 0,75 1 r 1    ERAT negati f ERAT positif
  • 18. • Pendugaan terhadap koefisien regresi:  b0 penduga bagi 0 dan b1 penduga bagi 1 Bagaimana Pengujian terhadap model regresi ?? • parsial (per koefisien)  uji-t • bersama  uji-F (Anova) Bagaimana menilai kesesuaian model ?? R2 (Koef. Determinasi: % keragaman Y yang mampu dijelaskan oleh X) x b y b n x x n y x xy b 1 0 2 2 1 ) ( ) )( (           Metode Kuadrat Terkecil
  • 19. Membaca Tabel Model Summary .736a .542 .532 2760.003 Model 1 R R Square Adjusted R Square Std. Error of the Estimate Predictors: (Constant), Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates a. •Ketika kita run suatu analisi regresi dengan SPSS akan diperoleh 3 tabel. Masing2 tabel menjelaskan tentang keterkaitan yang ada. •Yang pertama adalah Model Summary. •R adalah koefisien korelasi Product Moment Pearson •Untuk contoh ini R adalah .736 •R square menunjukkan besarnya pengaruh variabel independen terhadap variabel dependent.
  • 20. R-Square Model Summary .736a .542 .532 2760.003 Model 1 R R Square Adjusted R Square Std. Error of the Estimate Predictors: (Constant), Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates a. •R-Square adalah variansi proporsi dari variabel dependent (income per capita) yang dapat diprediksi variabel independent (level of education). •Hasil ini menunjukkan bahwa 54.2% dari variabel pendapatan dapat diprediksi dari variabel pendidikan. Catatan: ini merupakan pengukuran secara umum terhadap tingkat kekuatan hubungan, dan tidak menggambarkan tingkat pengaruh yang khusus antara variabel independent terhadap variabel dependent. •R-Square disebut juga sebagai koefisien keterkaitan.
  • 21. Adjusted R-square Model Summary .736a .542 .532 2760.003 Model 1 R R Square Adjusted R Square Std. Error of the Estimate Predictors: (Constant), Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates a. Sebagai predictors tambahan dari suatu model, masing2 predictor akan menerangkan beberapa variansi dari suatu variabel dependen karena suatu perubahan. Kita dapat tetap menambahkan predictors kedalam model untuk meningkatkan kemampuan predictor menjelaskan variabel dependen, meskipun beberapa kenaikan R-square dapat disebabkan oleh variasi sampel. Adjusted R-square merupakan usaha untuk mendapatkan nilai yang lebih mendekati keadaan sebenarnya untuk mengestimasi R-squared untuk suatu populasi. Nilai R-square .542, sementara nilai Adjusted R-square adalah .532. Tidak ada perbedaan yang berarti karena hanya pengamatan pada satu variabel independent. Ketika jumlah pengamatan kecil dan jumlah prediktor besar, maka akan ada perbedaan yang besar pada R-square &adjusted R-square. Sebalimnya, jika jumlah pengamatan sangat besar dibandingkan dengan jumlah prediktor, nilai dari R-square dan adjusted R-square akan mendekati sama.
  • 22. ANOVA ANOVAb 4.32E+08 1 432493775.8 56.775 .000a 3.66E+08 48 7617618.586 7.98E+08 49 Regression Residual Total Model 1 Sum of Squares df Mean Square F Sig. Predictors: (Constant), Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates a. Dependent Variable: Personal Income Per Capita, current dollars, 1999 b. •p-value dikaitkan dengan F value adalah sangat kecil (0.0000). •Nilai/values ini digunakan untuk menjawab pertanyaan “apakah variabel independent dapat dipercaya untuk memprediksi variable dependent?". •p-value dibandingkan terhadap alpha level (biasanya 0.05) dan, jika lebih kecil, dapat disimpulkan bahwa “Ya, variabel2 independent dapat dipercaya untuk memprediksi variable dependent". •Jika p-value lebih besar dari 0.05, dapat disimpulkan bahwa variabel2 independent secara statistik tidak memiliki hubungan yang signifikan dengan dependent variable, atau grup variabel independent tersebut tidak dapat reliabel untuk memprediksi dependent variable.
  • 23. Coefficients Coefficientsa 10078.565 2312.771 4.358 .000 688.939 91.433 .736 7.535 .000 (Constant) Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates Model 1 B Std. Error Unstandardized Coefficients Beta Standardized Coefficients t Sig. Dependent Variable: Personal Income Per Capita, current dollars, 1999 a. B – adalah nilai dari persamaan regresi untuk memprediksi keterkaitan antara variabel independent terhadap variabel dependent. Disebut unstandardized coefficients karena diukur berdasarkan unit sebenarnya. Juga, koefisien B tidak dapat dibandingkan satu dengan yang lainnya untuk memperkirakan nyang mana yang lebih berpengaruh dalam suatu model, karena komponen tersebut diukur dengan skala yang berbeda.
  • 24. Coefficients Coefficientsa 13032.847 1902.700 6.850 .000 517.628 78.613 .553 6.584 .000 7.953 1.450 .461 5.486 .000 (Constant) Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates Population Per Square Mile Model 1 B Std. Error Unstandardized Coefficients Beta Standardized Coefficients t Sig. Dependent Variable: Personal Income Per Capita, current dollars, 1999 a. •Tabel ini memperlihatkan dua variabel dan menunjukkan bagaimana perbedaan dari nilai B. Oleh karena itu perlu dilihat standardized Beta untuk melihat perbedaannya.
  • 25. Coefficients Coefficientsa 10078.565 2312.771 4.358 .000 688.939 91.433 .736 7.535 .000 (Constant) Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates Model 1 B Std. Error Unstandardized Coefficients Beta Standardized Coefficients t Sig. Dependent Variable: Personal Income Per Capita, current dollars, 1999 a. •Beta – sebagai standardized coefficients. •Koefisien ini yang diperoleh jika semua variabel distandarkan dengan regresi baik dependent maupun independent variabel, dan run regresi. •Dengan menstandarkan variablel2 sebelum running regresi, kita menempatkan semua variabel pada skala yang sama , dan kita dapat membandingkan besaran koefisien untuk melihat mana yang memiliki pengaruh yang lebih besar. •Dapat juga dilihat bahwa semakin besar beta semakin besar t-values.
  • 26. Konversi b ke Beta Income per capita Independent variables b Beta Percent population with BA 688.939 .736 R2 .542 Number of Cases 49 Level anlisis Regressi dari Education oleh Income per capita
  • 27. Bagian Persamaan Regresi • b menggambarkan kemiringan garis – Diperoleh dengan perbandingan antara perubahan variabel dependent oleh perubahan variabel independent. – Residual adalah perbedaan antara nilai aktual Y dan jumlah perhitungan. – Residual menggambarkan besarnya kesalahan prediksi nilai y dari masing2 fungsi X.
  • 28. Perbandingan dua variabel  Analisis Regresi bermanfaat untuk membandingkan dua variabel apakah pengendalian suatu variabel independent mempengaruhi model yang ada.  Untuk model variabel independent pertama, pendidikan, argumenya adalah penduduk semakin terdidik akan mendapatkan pembayaran yang lebih tinggi dalam pekerjaan, menghasilakan tingkat pendapatan perkapita yang semakin tinggi.  Variabel independent kedua juga sama karena harapan mendapatkan pekerjaan dengan pembayaran yang lebih baik, dan selanjutnya mendapat kesempatan yang lebih besar untuk tinggal dikota dari pada di desa.
  • 29. Single Model Summary .849a .721 .709 2177.791 Model 1 R R Square Adjusted R Square Std. Error of the Estimate Predictors: (Constant), Population Per Square Mile, Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates a. ANOVAb 5.75E+08 2 287614518.2 60.643 .000a 2.23E+08 47 4742775.141 7.98E+08 49 Regression Residual Total Model 1 Sum of Squares df Mean Square F Sig. Predictors: (Constant), Population Per Square Mile, Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates a. Dependent Variable: Personal Income Per Capita, current dollars, 1999 b. Coefficientsa 13032.847 1902.700 6.850 .000 517.628 78.613 .553 6.584 .000 7.953 1.450 .461 5.486 .000 (Constant) Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates Population Per Square Mile Model 1 B Std. Error Unstandardized Coefficients Beta Standardized Coefficients t Sig. Dependent Variable: Personal Income Per Capita, current dollars, 1999 a. Model Summary .736a .542 .532 2760.003 Model 1 R R Square Adjusted R Square Std. Error of the Estimate Predictors: (Constant), Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates a. ANOVAb 4.32E+08 1 432493775.8 56.775 .000a 3.66E+08 48 7617618.586 7.98E+08 49 Regression Residual Total Model 1 Sum of Squares df Mean Square F Sig. Predictors: (Constant), Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates a. Dependent Variable: Personal Income Per Capita, current dollars, 1999 b. Coefficientsa 10078.565 2312.771 4.358 .000 688.939 91.433 .736 7.535 .000 (Constant) Percent of Population 25 years and Over with Bachelor's Degree or More, March 2000 estimates Model 1 B Std. Error Unstandardized Coefficients Beta Standardized Coefficients t Sig. Dependent Variable: Personal Income Per Capita, current dollars, 1999 a. Multiple Multiple Regression Regression
  • 30. Contoh: Dik Data Delivery Time Time No. of Cases Distance Time No. of Cases Distance 16.68 7 560 19.75 6 462 11.50 3 220 24.00 9 448 12.03 3 340 29.00 10 776 14.88 4 80 15.35 6 200 13.75 6 150 19.00 7 132 18.11 7 330 9.50 3 36 8.00 2 110 35.10 17 770 17.83 7 210 17.90 10 140 79.24 30 1460 52.32 26 810 21.50 5 605 18.75 9 450 40.33 16 688 19.83 8 635 21.00 10 215 10.75 4 150 13.50 4 255
  • 34. Langkah-langkah Analisis Regresi dengan SPSS • Klik ganda icon SPSS pada desktop atau klik pada start menu untuk mengaktifkan program SPSS • Setalah muncul kotak dialog SPSS for Windows maka klik Cancel (kalau ingin membuat data baru) • Pada halaman SPSS data editor klik Variable View • Untuk memasukkan variable langkah sebagai berikut : • Ketik y pada kolom Name, pada Label ketik VAR independent (Y), dan pada kolom Measure pilih Scale • Pada kolom Name dibawahnya ketik x1, pada Label ketik Var dependen 1 (X1), dan pada kolom Measure pilih Scale • Padakolom Name dibawahnya ketik x2, pada Label ketik Var dependen 2 (X2), dan pada kolom Measure pilih Scale (Utk 2 var independent) • Pada kolom Name dibawahnya ketik x3, pada Label ketik Var dependen 3 (X3), dan pada kolom Measure pilih Scale (Utk 2 var independent) • Kolom-kolom lainnya biarkan isian default • Setalah selesai memasukkan variable maka selanjutnya klik Data View • Isikan data y, x1,x2 dan x3 sesuai dengan variabelnya
  • 35. Langkah-langkah Analisis Regresi dengan SPSS • Setelah selesai mengisikan data maka selanjutnya klik : • Analyze  Regression  Linear • Setelah itu kemudian akan terbuka kotak dialog Linear Regression. Pindahkan variabel (Y) ke kotak Dependent, kemudian pindahkan variabel (X1), (X2), dan (X3) ke kotak Independen. • Klik tombol Statistics, selanjutnya akan terbuka kotak dialog Linear Regression Statistics. Pilih Collinearity diagnostics untuk menguji multikolinearitas, dan pilih Durbin-Watson untuk menguji autokorelasi. • Klik tombol Continue. Maka akan kembali ke kotak dialog sebelumnya. • Untuk uji heteroskedastisitas maka klik Plots terbuka, selanjutnya kotak dialog Linear Regression : Plots terbuka, masukkan *ZRESID (Standardized Residual) ke kotak Y, dan masukkan *ZPRED (Standardized Predicted Value) ke kotak X. Selanjutnya pilih Normal probability plot untuk uji normalitas. • Klik Continue, selanjutnya akan kembali ke kotak dialog sebelumnya. • Klik OK.
  • 39. Diagnosa Regresi • Residual Analysis –Normal Probability Plot • Gunakan deteksi Normality of Error –Plot Residual terhadap Fitted Value • Deteksi adanya Heteroscedasticity –Plot of Residual terhadap Regressors • Gunakan Linearity of Regressors
  • 42. Plot Residuals terhadap Fitted Value
  • 43. Autokorelasi • Autokorelasi adalah keadaan dimana terjadinya korelasi dari residual untuk pengamatan satu dengan pengamatan lain yang disusun menurut runtun waktu.Model regresi yang baik adalah mensyaratkan tidak adanya masalah autokorelasi. Dampak yang diakibatkan dengan adanya autokorelasi yaitu varian sampel tidak dapat menggambarkan varian populasinya. • Untuk mendeteksi ada tidaknya autokorelasi dengan dilakukan uji Durbin- Watson dengan prosedur sebagai berikut : • Menentukan hipotesis nol dan hipotesis alternatif • H0 : tidak terjadi autokorelasi • Ha : Terjadi autokorelasi • b. Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,05 • c. Menentukan nilai d (Durbin-Watson) • d. Menentukan nilai dL dan dU • Nilai dL dan dU dapat dilihat pada table Durbin-Watson pada signifikansi 0,05, n = 24 (misal) dan k = 3 (misal) ( n adalah julah data dan k adalah jumlah variable independen ). Didapat dL = 1,101 dan dU = 1,656. Jadi dapat dihitung nilai 4-dU = 2,344 dan 4-dL = 2,899. • Pengambilan keputusan – dU < d < 4-dU maka H0 diterima ( tidak terjadi autokorelasi ) – d < dL atau d > 4-dL maka H0 ditolak (terjadi autokorelasi ) – dL < d < dL atau 4-dU < d < 4-dL maka tidak ada kesimpulan
  • 44. Menghilangkan Autocorrelation • Autocorrelation dapat dihilangkan dengan menggunakan pemodelan * 1 t t t Y Y rY  
  • 46. Menghilangkan Autocorrelation   * 1 1.170 2 1 1 2 1 1.170 2 0.415 0.415 t t t d d r r d r r Y Y Y            
  • 47. Creation of Lagged Variable
  • 50. Multicollinearity Hubungan Linear atau mendekati Linear diantara variables independent. Jika hubungannya sempurna maka parameter tidak memungkinkan menggunakan metoda Classical Least Squares.
  • 51. Multicollinearity • Multikolinearitas adalah keadaan dimana antara dua variable independen atau lebih pada model regresi terjadi hubungan linier yang sempurna atau mendekati sempurna. Model regresi yang baik mensyaratkan tidak adanya masalah Multikolinearitas. Dampak yang diakibatkan dengan adanya Multikolinearitas antara lain yaitu : – Nilai standart error untuk masing-masing koefisien menjadi tinggi, sehingga t hitung menjadi rendah – Standart error of estimate akan semakin tinggi dengan bertambahnya variabel independen – Pengaruh masing-masing variable independen sulit dideteksi • • Untuk mendeteksi ada tidaknya multikolinearitas dengan melihat nilai tolerance dan VIF. Semakin kecil nilai tolerance dan semakin besar VIF maka semakin mendekati terjadinya masalah multikolinearitas. Dalam kebanyakan penelitian menyebutkan bahwa jika tolerance lebih dari 0,1 dan VIF kurang dari 10 maka tidak terjadi multikolinearitas. • Dari table coefficients dapat diketahui bahwa nilai Tolerance dari ketiga variable independen lebih dari 0,1 dan VIF kurang dari 10, jadi dapat disimpulkan bahwa dalam model regresi tidak terjadi masalah multikolinearitas.
  • 52. Diagnosis Regresi : Multicollinearity   2 2 2 1 1 ; 1 10 ; 0.1 ; 100 j j j j max j j ji i ij j VIF R Tol VIF VIF Tol CI CI t VDP VIF                 
  • 57. Uji F • Uji F atau uji koefisien regresi secara serentak, yaitu untuk mengetahui pengaruh variabel independen secara serentak terhadap variabel dependen, apakah pengaruhnya signifikan atau tidak. • Tahap-tahap pengujian sebagai berikut : • Menentukan hipotesis nol dan hipotesis alternative • H0 : b1 = b2 = b3 = b4 = 0 • Artinya variabel independent (x1, x2, dan x3)secara serentak tidak berpengaruh terhadap Penjualan • Ha : b1 ≠ b2 ≠ b3 ≠ b4 ≠ 0 • Artinya variabel independen secara serentak berpengaruh terhadap Penjualan • Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,05 • F hitung dan F kritis • F hitung adalah nilai F hasil hitungan SPSS (lihat table ANOVA) • F kritis dapat dicari pada table statistic pada signifikansi 0,05 df1 = k-1 atau 4-1 = 3, dan df2 = n-k atau 24-4 = 20 (k adalah jumlah variabel). Didapat F kritis adalah 3,098 (misal) • Cara lain mencari F kritis yaitu menggunakan program Ms Excel. Pada cell kosong ketik FINV (0,05,3,20) kemudian tekan Enter • Pengambilan keputusan • F hitung < F kritis jadi H0 diterima • F hitung > F kritis jadi H0 ditolak • Bila F hitung > F table, hipotesis nol ditolak, kesimpulannya yaitu var independent secara secara serentak berpengaruh terhadap var dependen
  • 58. Uji T • Uji t untuk mengetahui pengaruh variabel independen secara parsial terhadap variabel dependen, apakah pengaruhnya signifikan atau tidak. • Pengujian b1 (x1) • Tahap-tahap pengujian sebagai berikut : • Menetukan hipotes nol dan hipotesis alternatif • H0 : b1 = 0 • Artinya var independen (x1)tidak berpengaruh terhadap var dependen (Y) • Ha : b1 ≠ 0 • Artinya X1 berpengaruh terhadap Y • Menentukan taraf signifikansi. Taraf signifikansi menggunakan 0,005 • t hitung dan t kritis • t hitung dapat dilihat pada table Coefficients • t kritis dapat dicari pada table statistik pada signifikansi • 0,05/2 = 0,025 (uji 2 sisi) dengan df = n-k-1 atau 24-3-1 = 20 (k adalah jumlah variabel independen). Didapat t kritis adalah 2,086. • Cara lain mencari t kritis yaitu menggunakan program Excel. Pada cell kosong ketik TINV (0.05,20) kemudian tekan Enter • Pengambilan keputusan • Kalau t hitung < t kritis jadi H0 diterima, t hitung > t kritis jadi H0 ditolak • Bila diketahui bahwa t hitung > kritis, hipotesis nol ditolak, kesimpulannya yaitu X1 berpengaruh terhadap Y.
  • 59. Uji Normalitas • Syarat dalam analisi parametric yaitu distribusi data harus normal. Pengujian menggunakan uji Kolmogorov-Smirnov ( Analisis Explore ) untuk mengetahui apakah distribusi data pada tiap-tiap variable normal atau tidak. • Langkah-langkah analisis explore adalah sebagai berikut : • a) Klik Analyze Descriptive Statistics Explore • Setelah itu akan terbuka kotak dialog Explore. Pindahkan semua variable ke kotak Dependent List. Pada Display pilih Plots • b) Klik tombol Plots, selanjutnya akan terbuka kotak dialog Explore : Plots. Pilih Normality plots with test. • c) Klik tombol Continue. Maka akan kembali ke kotak dialog sebelumnya. • d) Klik OK • Kriteria pengambilan keputusan yaitu jika signifikansi > 0,05 maka data berdistribusi normal, dan jika Signifikansi < 0,05 maka data tidak berdistribusi normal. • Kriteria pengambilan keputusan yaitu sebagai berikut : • Jika data menyebar disekitar garis diagonal dan mengikuti arah diagonal, maka model regresi memenuhi asumsi normalitas. • Jika data menyebar jauh dari garis diagonal atau tidak mengikuti arah diagonal, maka model regresi tidak memenuhi asumsi normalitas.
  • 60. Tabel Durbin Watson Dengan Tingkat Signifikansi 0.05 N k = 1 ikansi k = 3 dL dU dL dU dL dU 10 0.879 1.320 0.697 1.641 0.525 2.016 11 0.927 1.324 0.658 1.604 0.595 1.928 12 0.971 1.331 0.812 1.579 0.658 1.864 13 1.010 1.340 0.861 1.562 0.715 1.816 14 1.045 1.350 0.905 1.551 0.767 1.779 15 1.077 1.361 0.946 1.543 0.814 1.750 16 1.106 1.371 0.982 1.539 0.857 1.728 17 1.133 1.381 1.015 1.536 0.897 1.710 18 1.158 1.391 1.046 1.535 0.933 1.696 19 1.180 1.401 1.074 1.536 0.967 1.685 20 1.210 1.411 1.100 1.537 0.998 1.676 21 1.221 1.420 1.125 1.538 1.026 1.669 22 1.239 1.429 1.147 1.541 1.053 1.664 23 1.257 1.437 1.168 1.543 1.078 1.660 24 1.273 1.446 1.188 1.546 1.101 1.656 25 1.288 1.454 1.206 1.550 1.123 1.654 26 1.302 1.461 1.224 1.553 1.143 1.652 27 1.316 1.469 1.240 1.556 1.162 1.651 28 1.328 1.476 1.255 1.560 1.181 1.650 29 1.341 1.483 1.270 1.563 1.198 1.650 30 1.352 1.489 1.284 1.567 1.214 1.650