Analisis Regresi Berganda: Permasalahan dalam Pengujian
Pengujian Kesamaan 2 coeff variable
RESTRICTED LEAST SQUARES: TESTING LINEAR EQUALITY
RESTRICTIONS
T-test
F test
Example
Example
Formula
Chow Test
Model Regresi : Variabel Dummy
Model Regressi dengan Variabel Dummy
Dalam analisis regresi seringkali terjadi bahwa variabel terikat tidak hanya dipengaruhi oleh
variabel kuantitatif tetapi juga oleh variabel kualitatif (daerah, jenis kelamin, ras, warna kulit,
agama, kebangsaan, dan sebagainya).
Misalnya dengan semua faktor lain dianggap konstan ternyata KPP di daerah jawa
memperoleh penerimaan pajak lebih tinggi dibandingkan KPP di pulau lain.
Karena variabel yang menjelaskan seperti itu biasanya menunjukkan ada atau tidaknya
“kualitas” atau ciri-ciri seperti Jawa atau luar jawa , lulus perguruan tinggi atau tidak, putra
daerah atau tidak dan lain-lain.
Suatu metode untuk membuatnya “kuantitatif” dari atribut seperti itu ialah dengan
membentuk variabel buatan yang bernilai 1 dan 0. Variable inilah yang disebut sebagai
dummy variable.
- 0 untuk menunjukkan ketidakhadiran ciri tadi; dan
- 1 menunjukkan adanya ciri-ciri tersebut.
Contoh Regressi dengan Dummy Variable
Contoh dari model regresi berganda dengan dummy variabel
Y = α0 + α1 D + β X + u
dengan
Y = Penerimaan Pajak per KPP
X = Jumlah WP Efektif
D = 1 KPP di Jawa
D = 0 untuk KKP selainnya
Model diatas berisi satu variabel kuantitatif (WPE) dan satu variabel kualitatif (Lokasi KPP )
yang mempunyai dua kategori yaitu Jawa dan Luar Jawa .
Dengan mengasumsikan seperti biasa E(u) = 0 maka :
Rata-rata Penerimaan Pajak KPP di Luar Jawa
E(Yi | Xi, Di = 0) = α0 + β X
Rata-rata Penerimaan Pajak KPP di Jawa
E(Yi | Xi, Di = 1) = (α0 + α1) + βX
Ciri Model Regresi dengan Variabel Dummy
1. Satu variabel dummy cukup untuk membedakan dua kategori seperti 1 untuk Jawa
dan 0 untuk yang lainnya (luar Jawa ).
2. Penetapan nilai 1 dan 0 untuk dua kategori seperti Jawa dan luar Jawa adalah bersifat
arbitrary dalam arti bahwa kita dapat menetapkan D = 1 untuk luar jawa dan D = 0
untuk Jawa.
3. Kelompok, kategori atau klasifikasi yang diberi nol seringkali disebut sebagai
kategori dasar, kontrol dan atau perbandingan. Unsur intersep bersama α0 adalah
unsur intersep untuk kategori dasar.
4. Koefisien α1 yang diberikan untuk variabel dummy disebut koefisien intersep
diferensial karena menunjukkan perbedaan antara kategori yang mendapat nilai 1
dengan kategori dasar.
Fungsi Variable Dummy dalam Model Regressi
- Pembeda intersep (untuk kasus di atas, fungsinya hanya sebagai pembeda
intersep, yakni ada perbedaan intersep antara model regressi Jawa dan luar jawa ).
- Dan atau pembeda slope (kemiringan) garis regressi jawa dan luar jawa , jika
dummy variabel diinteraksikan dengan variabel penjelas
Aturan Penggunaan Variabel Dummy
- Pemberian nilai variabel dummy dengan nilai 1 dan 0, bertujuan untuk
menghindarkan masalah multikolinieritas sempurna.
- Aturan umumnya adalah jika suatu variabel kualitatif mempunyai m kategori
maka varaibel dummy-nya hanya m-1 saja.
Regresi dengan Satu Variabel Kuantitatif Dan Satu Variabel Kualitatif Dengan
Lebih Dari Dua Kategori (lanjutan)
Y = α0 + α1 D1 + α2 D2 + β X + u
dengan
Y= Penerimaan Pajak menurut KPP
X= Banyaknya WP Eefektif
D1 = 1 ; jika KPP ada di Jawa
= 0 ; untuk yang lain
D2 = 1 ; jika KPP ada di Sumatera
= 0 ; untuk yang lain
Dengan mengasumsikan E(u) = 0 maka kita mendapatkan :
E(Yi | D1 = 0, D2 = 0, Xi) = α0 + β Xi
E(Yi | D1 = 1, D2 = 0, Xi) = (α0 + α1) + β Xi
E(Yi | D1 = 0, D2 = 1, Xi) = (α0 + α2) + β Xi
Suatu pengujian hipotesis bahwa α1 = α2 = 0 secara simultan dapat juga
dilakukan dengan metode ANOVA dan uji F yang mengikutinya.
Membandingkan Dua Regresi Dengan Variabel Dummy : Beda Intersep dan
Beda Slope
Untuk mengantisipasi adanya pergeseran model regresi, perhatikan model berikut :
Y = α0 + α1 Di + β1 Xi + β2 Di Xi + u
Di = 1; pengamatan pada periode 1
Di = 0; pengamatan pada periode 2
Sehingga rata-rata penerimaan pajak pada periode :
I : Y = (α0 + α1) + (β1 + β2) Xi
II : Y = α0 + β1 Xi
Dengan mengamati parameter-parameter diatas maka:
• Kasus 1 : Bila α1 = 0 dan β2 = 0
model I = model II
• Kasus 2 : Bila α1 ≠ 0 dan β2 = 0
slope sama, intersep beda
• Kasus 3 : Bila α1 = 0 dan β2 ≠ 0
intersep sama, slope beda
• Kasus 4 : Bila α1 ≠ 0 dan β2 ≠ 0
intersep dan slope berbeda
Contoh Dummy Variable dalam Analisis Regressi : Pembeda Intercept
Difference in Difference Analysis (DID Analysis)
Perbedaan dalam perbedaan (kadang-kadang disingkat DID [1] atau DD [2]) adalah teknik
statistik yang digunakan dalam penelitian ekonometrik dan kuantitatif dalam ilmu sosial yang
mencoba untuk meniru desain penelitian eksperimental menggunakan data penelitian
observasional, dengan mempelajari efek diferensial dari suatu pengobatan pada 'kelompok
perlakuan' versus 'kelompok kontrol' dalam percobaan alami (Wikipedia).
Nama Variabel dan Deskripsinya Kepatuhan = Persentase WPE yang menyampaikan SPT Penyuluhan = Frekuensi Penyuluhan Jawa = Dummy untuk Jawa, Jawa=1, 0 =Lainnya SUMTR= Dummy untuk Sumatera , Sumatera=1, 0=Lainnya
Analisis yang mencoba untuk mereplikasi uji klinis acak dengan membandingkan kelompok
perlakuan dan kelompok kontrol, sebelum dan sesudah pengobatan dikenakan untuk
memperkirakan dampak dari intervensi kebijakan yang diberikan.
Misal untuk melihat dampak intrevnsi kebijakan pemberian raskin terhadap peningkatan
konsumsi makanan kelompok miskin dengan menggunakan quasi experiment. Satu group
subject penelitian menerima raskin dan satu group yang lain tidak diberi raskin. Kemudian
dilihat pengaruhnya terhadap kecukupan karbohidrat dengan mengamati sebelum diberikan
raskin dan setelah diberikan raskin.
The Logic of DID Analysis
Model Liniernya
Perbedaan dalam perbedaan memerlukan data yang diukur dari
kelompok perlakuan dan kelompok kontrol dari dua atau lebih
periode waktu yang berbeda, dari sebelum dan sesudah 'perlakuan'.
Dalam contoh yang digambarkan, hasil pada kelompok perlakuan
diwakili oleh garis P dan hasil pada kelompok kontrol diwakili oleh
garis S. Variabel hasil (tergantung) pada kedua kelompok diukur
pada periode waktu 1, sebelum masing-masing kelompok memiliki
menerima perlakuan (yaitu, variabel independen atau penjelas),
diwakili oleh poin P1 dan S1. Kelompok perlakuan kemudian
menerima atau mengalami perlakuan dan kedua kelompok diukur
lagi pada periode waktu 2. Tidak semua perbedaan antara kelompok
perlakuan dan kontrol pada periode waktu 2 (yaitu, perbedaan antara
P2 dan S2) dapat dijelaskan sebagai menjadi efek dari pengobatan,
karena kelompok perlakuan dan kelompok kontrol tidak memulai
pada titik yang sama pada periode waktu 1. Oleh karena itu DID
menghitung perbedaan "normal" dalam variabel hasil antara kedua
kelompok (perbedaan yang masih akan ada jika tidak ada kelompok
yang mengalami perlakuan), diwakili oleh garis putus-putus Q.
(Perhatikan bahwa kemiringan dari P1 ke Q sama dengan
kemiringan dari S1 ke S2.) Efek pengobatan adalah perbedaan antara
hasil yang diamati dan "normal". "hasil (perbedaan antara P2 dan Q).
The Logic of DID Analysis
Model Regressi untuk DID Analysis
Misal Dummy Setelah Kebijakan
- T=1, setelah kebijakan
- T=0, sebelum Kebijakan
Misal Dummy Kelompok :
- S=1, jika sample diberikan “treatment”
- S=0, jika saple tidak diberikan “treatment”
Struktur Data untuk Analisis DID
Hasil Analisis
Aplikasi DID dalam kebijakan lalu lintas
Regress Y S T ST
Source | SS df MS Number of obs = 20 -------------+------------------------------ F( 3, 16) = 1.53
Model | 29345.2 3 9781.73333 Prob > F = 0.2459
Residual | 102492.8 16 6405.8 R-squared = 0.2226
-------------+------------------------------ Adj R-squared = 0.0768
Total | 131838 19 6938.84211 Root MSE = 80.036
------------------------------------------------------------------------------
Y | Coef. Std. Err. t P>|t| [95% Conf. Interval]
-------------+----------------------------------------------------------------
S | -76.8 50.61936 -1.52 0.149 -184.1083 30.50826
T | -47 50.61936 -0.93 0.367 -154.3083 60.30826
ST | 144.4 71.58659 2.02 0.061 -7.356793 296.1568
_cons | 2377.8 35.7933 66.43 0.000 2301.922 2453.678
------------------------------------------------------------------------------
Hasil Estimasi Model Regressi untuk DID Analysis
Ilustrasi Grafis DID Analysis
PelanggaranAsumsi OLS : Multicollinearity
Pengertian Multikolinearitas - Adanya hubungan linear antara beberapa atau semua variable penjelas (variable
independent) dalam model regressi.
- Perlu dibedakan efek dari multikolinearitas sempurna dan multikolinearitas tinggi.
- Jika terjadi multikolinearitas sempurna maka OLS tidak dapat menghasilkan nilai
parameter yang unik dimana model yang ada tidak dapat dipecahkan secara
matematik.
- Sedangkan jika terjadi multikolinearitas tinggi kesimpulan dari pengujian statistik
menjadi tidak valid.
Multikolinearitas menunjukkan situasi dimana terdapat hubungan yang linear sempurna atau
hampir sempurna diantara beberapa atau semua variabel bebas dalam model.
Multikolinearitas terjadi hanya pada hubungan linear diantara variabel X dan tidak
berlaku pada hubungan non linear .
Asumsikan terdapat k variabel independen, X1, X2, X3,…, Xk
1. hubungan linear sempurna antara variabel independen dikatakan jika kondisi dibawah
ini terpenuhi
dimana adalah konstanta yang tidak semuanya sama dengan nol.
Persamaan tersebut dapat diubah menjadi
dimana X2 tepat secara linear berhubungan dengan variabel lain atau koefisien korelasi antara
X2 dengan variabel lain merupakan suatu satuan.
2. hubungan linear hampir/kurang sempurna antara variabel independen jika kondisi di
bawah ini terpenuhi.
dimana vi adalah stokastik error
Kemudian persamaan kedua ini dapat diubah ke bentuk:
dimana X2 tidak secara tepat linear berhubungan dengan variabel lain karena juga
ditentukan oleh error yang stokastik .
Misalkan kita memiliki model;
Jika X1 meningkat sebanyak 1-unit, maka akan naik sebesar dengan X2 konstan.
Tetapi jika X1 dan X2 collinear, maka hal diatas tidak akan terjadi. Karena segera
setelah X1 berubah, maka X2 juga akan berubah. Maka selanjutnya akan sulit untuk
melihat pengaruh masing-masing X1 dan X2 terhadap Y.
Konsekuensi Adanya Multikolinieritas Dalam estimasi OLS yang memiliki multikolinearitas sempurna, maka koefisien
regressi akan tidak dapat ditentukan dan standar error akan tidak terbatas.
Misal;
Misalkan X3 berkorelasi linear sempurna dengan X2 dengan hubungan X3i=X2i
dimana adalah konstanta yang tidak nol.
Maka dengan proses subtitusi didapat:
jadi koefisien tidak dapat ditentukan, begitupun dengan dan
Jika atau , maka Se ( )=. Jadi untuk estimasi OLS yang memiliki
multikolinearitas sempurna maka standar error akan tidak terbatas.
Sedangkan dalam estimasi OLS yang memiliki multikolinearitas tidak sempurna, maka
koefisien regressi akan tetap dapat ditentukan, namun standar error akan besar sehingga
koefisien tidak dapat diestimasi dengan keakuratan yang tinggi.
Jika X3 tidak berkorelasi linear sempurna dengan X2 dengan hubungan
X3i=X2i+vi
Dimana 0, vi adalah error yang stokastik dan
Maka dapat diestimasi walaupun tergantung nilai vi. Jika vi sangat kecil atau mendekati
nol, maka dikatakan X3 berkorelasi linear sempurna dengan X2 dan tidak dapat ditentukan.
1. Meskipun BLUE, estimator OLS akan memiliki varians dan kovarians yang tinggi,
sehingga untuk melakukan estimasi secara tepat cenderung sulit.
r23 adalah koefisien korelasi antara X2 dan X3. Jika r23 cenderung mendekati 1, maka varian
dan kovarian dari kedua estimator menjadi meningkat dan pada nilai 1 nilai varians dan
kovarian menjadi tak terbatas, begitupun dengan kovarians.
2. Standar error semakin membesar
3. Interval keyakinan akan cenderung menjadi besar dengan meningkatnya
multikolinearitas.
4. Nilai t statistik akan cenderung tidak signifikan dan mendorong penolokan
signifikansi koefisien variabel.
Jika Se meningkat, maka t ratio akan kecil, sehingga akan mendorong penerimaan hipotesa
Ho
5. Meskipun satu atau lebih nilai t statistik tidk signifikan, R2 dapat memiliki nilai yang
tinggi.
6. Estimator OLS dan standar error-nya akan menjadi sensitif terhadap perubahan data
walaupun kecil
Cara Mendeteksi Adanya Multikolinieritas 1. Nilai t untuk setiap parameter tidak signifikan tetapi nilai R
2 sangat tinggi (mendekati
1).
2. Korelasi berpasangan diantara variabel penjelas sangat tinggi.
3. Nilai R2 dari auxiliary regression lebih besar dari nilai R
2 model yang sebenarnya
Auxiliary regression: regresi dari setiap Xi (variabel penjelas) terhadap Xi (variabel
penjelas) lainnya adalah :
4. Menghitung Variance Inflation Factor
• Mean VIF diatas 10 mengindikasikan adanya Multikolinearitas
Cara Mengatasi Multikolinieritas - Sebagian ahli menganggap bahwa masalah multikolinearitas tidak penting karena
teori BLUE tetap terpenuhi (the ‘do nothing’ school)
- Mengkombinasikan data Cross-section dan Time Series. (Cross section adalah
data dengan individu berbeda tetapi dengan titik waktu yang sama. Time series
adalah data dengan individu yang sama tetapi dengan series waktu yang berbeda-
beda)
- Membuang variabel independent yang menimbulkan masalah multikolinearitas
- Mentransformasi variabel dengan metode first difference.
- Menambah data baru
Contoh Kasus
Contoh Kasus : Mendeteksi Multikol
PelanggaranAsumsi OLS : Heteroscedasticity Pengertian
Var(ut) tidak konstan atau varians u (var(u)) dapat mempunyai nilai yang berbeda untuk tiap
observasi
Penyebab Munculnya Heteroskedastisitas
1. Berkurangnya error dengan bertambahnya waktu (error learning model).
Contoh, kesalahan seseorang dalam latihan mengetik akan semakin berkurang dengan makin
bertambahnya waktu latihan mengetik.
2. Error bertambah seiring dengan nilai variabel independen meningkat. Contoh konsumsi adalah variabel terikat dan income adalah variable bebas. Jika suatu
kelompok income rendah, maka konsumsi akan rendah dan variasi pengeluaran diantara
anggota kelompok akan rendah pula. Sedangkan jika ditambah adanya kelompok income
tinggi, maka akan terjadi perbedaan income yang mungkin tinggi. Rata–rata pengeluaran
akan meningkat dan variabilitas perbedaan pengeluaran antara anggota kelompok akan
meningkat pula.
3. Dengan membaiknya metode pengumpulan data, maka error dan varian error
akan makin kecil.
4. Munculnya outlier.
Outlier adalah suatu data yang nilainya sangat berbeda dengan sejumlah besar data lain
dalam suatu sampel.
5. Misspesifikasi model.
Contoh dalam suatu model kita menggunakan Y, padahal mungkin yang lebih baik adalah log
Y, Y2 atau lainnya.
Konsekuensi Adanya Heteroskedastisitas 1. Heteroskedastisitas menghasilkan estimasi parameter yang tidak bias namun tidak lagi
BLUE.
Jika tidak heteroskedastisitas, maka
2. Varian estimasi ,
akan menjadi bias terhadap varian sebenarnya;
Implikasi dan Cara Mendeteksi Implikasi adanya Heteroskedastisitas
o Penduga parameter tetap tak bias dan konsisten, tetapi tidak efisien (variance-
nya tidak minimum)
o Akhirnya penduga BLUE tidak dipenuhi , tapi hanya LUE
Ada banyak cara untuk mendeteksai adanya heteroskedastisitas, tetapi yang lazim
digunakan adalah
o Mendeteksi dengan Cara Visual (Grafik)
o Secara Formal : White General Heteroskedastisitas
Jika error kuadrat diplot dengan variable bebas, hasil plotnya mempunyai pola
Contoh Kasus : Hubungan Tax dengan PDB
0
0.2
0.4
0.6
0.8
1
1.2
1.4
1.6
1.8
2
0 10 20 30 40 50
ART
e^
2
Contoh Kasus Mendeteksi Adanya Heteroskedasticity
Pola residualnya menunjukkan makin besar seiring bertambahnya PDB
Cara Mengatasi : Dicoba dengan transformasi logaritma
Cara Mengatasi : Dengan WLS
PelanggaranAsumsi OLS : Serial Correlation
Pengertian Autokorelasi
- autocorrelated error menggambarkan korelasi antara error ei dengan ej untuk i
j.
- Di dalam literatur ekonometrika persoalan ini sering disebut dengan otokorelasi
yang merupakan persoalan yang umum ditemukan dalam data time series.
Penyebab adanya Autokorelasi
- Adanya shocks yang seringkali pengaruhnya tetap muncul dalam suatu periode
waktu yang cukup lama.
- inertia atau psychological conditioning.
- Manipulasi data.
- Salah spesifikasi (Adanya variabel yang penting tidak masuk dalam model dan
bentuk fungsi tidak tepat)
- Lag : Dalam model autoregressive terdapat variable bebas yang nilainya
merupakan lag dari variable terikat.
- Manipulasi data
Misalkan seseorang dapat memperoleh data kuartalan dari data bulanan dengan
merata-ratakan data secara 3 bulanan. Sedang data untuk kuartal ke dua diperoleh dengan
merata-ratakan data secara 3 bulanan selanjutnya. Jika kita melakukan ini, maka kita akan
medapatkan smoothness/kehalusan dalam data yang tidak ada sebelumnya. Selanjutnya ini
akan mempengaruhi error term
- Fenomena CobWeb
Jika pada akhir t, harga pertanian saat t lebih kecil dibanding t-1, maka supply
pertanian saat t+1 lebih kecil dibandng saat t. Sehingga , error pada saat t (ut), tidak akan
random, karena jika petani memproduksi hasil pertanian berlebih (overproduce) pada saat t,
maka mereka akan mengurangi poduksi saat t+1, sehingga membentuk pola Cobweb.
Konsekuensi Adanya Autokorelasi - Estimasi OLS tetap linear dan tidak bias namun tidak lagi efisien/BLUE
(variannya tidak minimum).
- Interval keyakinan akan semakin lebar, menyebabkan kita menerima hipotesa H0
(koefisien tidak signifikan).
- R2 juga akan over estimate.
- t-stat dan F-ratio akan tidak valid; yang jika digunakan akan menyebabkan
kesimpulan yang salah.
Cara Mendeteksi Keberadaan Autokorelasi : Cara Visual
Cara Grafik :Residualnya berpola
-40,000
-30,000
-20,000
-10,000
0
10,000
20,000
30,000
90 92 94 96 98 00 02 04 06 08
PC Residuals
Cara Mendeteksi Keberadaan Autokorelasi :DW test
Cara Mendeteksi Keberadaan Autokorelasi : BG-test
DENGAN CORRELOGRAM : KORELASI ERROR TERM UNTUK BEBERAPA LAG ADA YANG SIGINIFIKAN BERBEDA DENGAN NOL
Contoh Kasus : Hubungan Tax dengan PDB
Contoh Kasus :Hasil Uji
Cara Mengatasi : Dengan menggunakan model first difference
Model First Difference sdh tidak mengandung autokorelasi
Pengujian Spesifikasi
Model Selection Criteria
Hendry dan Richard (1983) menyarankan bahwa untuk keperluan praktis, model regressi
harus memenuhi kriteria berikut :
- Prediksi yang dibuat dari model haruslah masuk akal
- Konsisten dengan teori
- Tidak ada korelasi antara variabel X (independent) dengan error term (strictly
exogenous)
- Dugaan parameternya haruslah stabil Exhibit parameter contancy
- Errornya haruslah random (white noise) Exhibit data coherency
- Tidak ada model lain yang lebih baik dari model yang dipilih
Bentuk-bentuk kesalahan spesifikasi model - Omitting a relevant variable (underfitting)
- Inclusion of an irrelevent variable (overfitting)
- Adopting wrong functional form
- Errors of Measurement
- Incorrect specification of the stochastic error term
- Melupakan faktor interaksi antar regressor
Omitting a relevant Variables Menghilangkan variabel yang relevan dari model regresi menyebabkan variabel ini menjadi
bagian dari istilah kesalahan. Oleh karena itu satu atau lebih asumsi CLRM akan dilanggar.
Pertimbangkan fungsi regresi populasi:
Y = β1 + β2X2 + β3X3 + u
di mana β2 ≠ 0 dan β3 ≠ 0, dan menganggap ini sebagai yang benar.
Namun, kami memperkirakan yang berikut ini
Y = β1 + β2X2 + u
di mana X3 salah dihilangkan.
Kemudian, istilah kesalahan dari persamaan ini adalah:
u = β3X3 + e
Jelas bahwa asumsi bahwa istilah kesalahan memiliki rata-rata nol sekarang dilanggar:
E (u) = E (β3X3 + e) = E (β3X3) + E (e) = E (β3X3) ≠ 0
Selanjutnya, jika variabel yang dikecualikan X3 berkorelasi dengan X2 maka istilah
kesalahan tidak lagi independen dari X2.
Ini hasil untuk penaksir β2 dan β3 menjadi bias dan tidak konsisten.
Ini disebut omitted variable bias.
Konsekuensi dari Kesalahan Spesifikasi Model
Konsekuensi dari hilangnya variabel yang relevant (variabel yang penting)
- Dugaan Parameter akan bias dan tidak konsisten
- Variance error term diduga secara tidak tepat
- Akibatnya selang kepercayaan dan pengujian hipotesis akan missleading
- Jika digunakan untuk forecasting cenderung tidak reliable
Including irrelevant Variables Ini adalah kasus sebaliknya. Model yang benar adalah:
Y = β1 + β2X2 + u
dan kami memperkirakan:
Y = β1 + β2X2 + β3X3 + e
di mana X3 salah dimasukkan dalam model.
Karena X3 tidak termasuk dalam model yang benar, koefisien populasinya harus sama
dengan nol (mis. Β3 = 0).
Jika β3 = 0 maka tidak ada asumsi CLRM yang dilanggar dan penaksir OLS keduanya tidak
bias dan konsisten.
Namun, tidak mungkin mereka efisien.
Jika X2 berkorelasi dengan X3 maka elemen multikolinieritas tambahan yang tidak perlu
akan diperkenalkan.
Inclusion of an irrelevant variable (Overvitting a model)
Konsekuensi
- Unbiased dan consistent
- Variance error masih bisa diduga dengan tepat
- Pengujian hipotesis dan pendugaan interval masih valid
- Kurang efisien dibandingkan dengan model yang sesungguhnya
Omission and Inclusion at the same time Dalam hal ini model yang benar adalah:
Y = β1 + β2X2 + β3X3 + v
dan kami memperkirakan:
Y = β1 + β2X2 + β4X4 + w
Seharusnya sekarang mudah untuk memahami masalah yang disebabkan oleh kesalahan
ganda ini.
Pengujian Kesalahan Spesifikasi
1. Mendeteksi kehadiran variabel yang tidak perlu (overfitting a model)
Bottom up approach/data mining/regression fishing
Perhatikan koreksi level of signifikansinya α*=(c/k)α
2. Pengujian untuk menghilangkan variabel dan bentuk fungsi yang salah
– Pengujian Residual
– DW-statistic (time series data)
– Ramsey’s RESET Test
3. LM test for Adding Variable
Examinations of Residual
Jika tidak terjadi kesalahan spesifikasi, maka error term (residual) tidak berpola
Misal fungsi cost dipertimbangkan tiga modal berikut :
o TC=b0+b1*output+e1
o TC=b0+b1*output+b2+output^2+e2
o TC=bo+b1*output+b2*output^2 +b3*output^3+e3
Ramsey Reset Test
Idenya sbb
- Misal yang kita duga dalam fungsi biaya adalah bentuk linier:
TC=bo+b1*output+e1
- Jika di-plot antara e1 dengan dugaan Y , maka akan berpola sehingga jika Y
dugaan dimasukkan ke model , maka akan meningkatkan R-square model .
- Jika R-square meningkat secara signfikan maka model funsgi biaya dalam bentuk
fungsi linier adalah miss spesifikasi
Tahapan Ramsey’s RESET-test
- Run model yang diuji
- Masukkan dugaan Y dalam bentuk sebagaimana hubungan residual dengan
dugaan Y, dalam hal ini bentuk dugaan Y dalam kuadratik dan Kubik
- TC=bo+b1*output+b2*(dugaan tc^2)+b3* (dugaan tc^3) +u
- Hitung F dengan formula :
Nested Vs Non Nested Models
Pengertian : Nested dan Non Nested Model
Pengujian terhadap Non-Nested Hypothesis
- The Discrimination Approach
R-square
R-square adjusted
AIC
SIC
Mallow’s CP Criteria
- The Discerning Approach
Non Netsed F test (Mizon-Richard Test) but have no economic
meaning, why ?
Davidson –Mackinnon J test
Tests for Non-Nested Models Jika kita ingin menguji model yang tidak bersarang maka kita tidak dapat menggunakan
pendekatan F-statistik.
Non-bersarang adalah model di mana tidak ada persamaan yang merupakan kasus khusus
dari yang lain, dengan kata lain kami tidak memiliki model terbatas dan tidak dibatasi.
Misalkan misalnya kita memiliki yang berikut:
Y = β1 + β2X2 + β3X3 + u (1)
Y = β1 + β2lnX2 + β3lnX3 + u (2)
Tests for Non-Nested Models : Non Nested F test Satu pendekatan (Mizon dan Richard) menyarankan estimasi model bentuk yang
komprehensif:
Y = δ1 + δ2X2 + δ3X3 + δ4lnX2 + δ5lnX3 + e
dan kemudian menerapkan uji-F untuk signifikansi δ4 dan δ5 sebagai persamaan model
terbatas (1).
Tests for Non-Nested Models Pendekatan kedua (Davidson dan McKinnon) menunjukkan bahwa jika model (1) benar
maka nilai-nilai yang cocok dari (2) harus tidak signifikan dalam (1) dan sebaliknya.
Jadi mereka menyarankan estimasi
Y = β1 + β2X2 + β3X3 + δY * + e
di mana Y * adalah nilai yang cocok dari model (2). Uji-t sederhana dari koefisien Y * dapat
disimpulkan.
Model Regresi Non Linier
Model Non Linear
- Model non linear dalam parameter, dalam variable bisa linear maupun non lnear.
- Beberap model tampak non linear dalam parameter, tetapi intrinsically linear ,
karena dengan transformasi bisa dibuat model linear dalam parameter.
- Tetapi beberapa model tidak bisa dilinearkan dala parameter, maka model tsb
disebut intrinsically non linear regression model (NLRM)
Contoh Model NonLinear
Sifat intrinsik dan non instrinsik dalam regressi nonlinear
Estimasi Model Regressi NonLinear
- Trial and Error
- Direct Optimization / Method of steepest descent
- Iterative Linearization Method
o Melinierkan model non linear dengan menggunakan Taylor series
expansion
o Hasil linierisasi pada point a diestimasi dengan OLS sebagai nilai dugaan
parameter awal
o Melakukan re-adjusted secara terus menerus sehingga nilai dugaan
parameternya konvergen
Ada dua Algoritmanya untuk metode di atas yaitu :
Gauss -Newton iterative method
Newton-Raphson iterative method
Contoh Hasil Estimasi Regressi NonLinear dengan EVIEWS 9
Contoh dugaan Model NL dengan Stata
Contoh Estimasi Model Non Linier