Meskipun manfaat pemilihan model bertahap telah dibahas sebelumnya, menjadi tidak jelas bagi saya apa sebenarnya " pemilihan model bertahap " atau " regresi bertahap ". Saya pikir saya memahaminya, tetapi tidak begitu yakin lagi.
Pemahaman saya adalah bahwa kedua istilah ini sinonim (setidaknya dalam konteks regresi), dan bahwa mereka merujuk pada pemilihan set variabel prediktor terbaik dalam model "optimal" atau "terbaik" , diberikan data. (Anda dapat menemukan halaman Wikipedia di sini , dan ikhtisar lain yang berpotensi bermanfaat di sini .)
Berdasarkan beberapa utas sebelumnya (misalnya di sini: Algoritma untuk pemilihan model otomatis ), tampak bahwa pemilihan model bertahap dianggap sebagai dosa utama. Namun, tampaknya itu digunakan sepanjang waktu, termasuk oleh apa yang tampaknya menjadi ahli statistik yang dihormati. Atau apakah saya mencampur terminologi?
Pertanyaan utama saya adalah:
Dengan "pemilihan model bertahap" atau "regresi bertahap", apakah maksud kami:
A ) melakukan pengujian hipotesis berurutan seperti tes rasio kemungkinan atau melihat nilai-p? (Ada posting terkait di sini: Mengapa nilai-p menyesatkan setelah melakukan seleksi bertahap? ) Apakah ini yang dimaksud dengan itu dan mengapa itu buruk?
Atau
B ) apakah kita juga menganggap seleksi berdasarkan AIC (atau kriteria informasi serupa) sama buruknya? Dari jawaban di Algoritma untuk pemilihan model otomatis , tampaknya ini juga dikritik. Di sisi lain, Whittingham et al. (2006; pdf ) 1 tampaknya menyarankan bahwa pemilihan variabel berdasarkan pendekatan informasi-teori (TI) berbeda dari seleksi bertahap (dan tampaknya menjadi pendekatan yang valid) ...?Dan ini adalah sumber dari semua kebingungan saya.
Untuk menindaklanjuti, jika seleksi berbasis AIC berada di bawah "stepwise" dan dianggap tidak tepat, maka berikut adalah pertanyaan tambahan:
Jika pendekatan ini salah, mengapa itu diajarkan di buku pelajaran, kursus universitas, dll? Apakah semua itu salah?
Apa alternatif yang baik untuk memilih variabel mana yang harus tetap dalam model? Saya telah menemukan rekomendasi untuk menggunakan validasi silang dan set data pelatihan-tes, dan LASSO.
Saya pikir semua orang bisa setuju bahwa tanpa pandang bulu melemparkan semua variabel yang mungkin ke dalam model dan kemudian melakukan seleksi bertahap adalah masalah. Tentu saja, penilaian yang bijaksana harus memandu apa yang masuk pada awalnya. Tetapi bagaimana jika kita sudah mulai dengan sejumlah variabel prediktor yang mungkin berdasarkan pada pengetahuan (katakanlah biologis), dan semua prediktor ini mungkin menjelaskan respons kita? Apakah pendekatan pemilihan model ini masih cacat? Saya juga mengakui bahwa pemilihan model "terbaik" mungkin tidak sesuai jika nilai AIC di antara model yang berbeda sangat mirip (dan inferensi multi-model dapat diterapkan dalam kasus seperti itu). Tetapi apakah masalah yang mendasari penggunaan seleksi bertahap berbasis AIC masih bermasalah?
Jika kita mencari untuk melihat variabel mana yang tampaknya menjelaskan respon dan dengan cara apa, mengapa pendekatan ini salah, karena kita tahu "semua model salah, tetapi ada yang berguna"?
1. Whittingham, MJ, Stephens, PA, Bradbury, RB, & Freckleton, RP (2006). Mengapa kita masih menggunakan pemodelan bertahap dalam ekologi dan perilaku? Jurnal Ekologi Hewan, 75, hlm. 1182–1189.
Jawaban:
1) Alasan Anda bingung adalah bahwa istilah "stepwise" digunakan secara tidak konsisten. Terkadang itu berarti prosedur yang cukup spesifikhal -nilai koefisien regresi, dihitung dengan cara biasa, digunakan untuk menentukan kovariat apa yang ditambahkan atau dihapus dari model, dan proses ini diulang beberapa kali. Ini dapat merujuk pada (a) variasi tertentu dari prosedur ini di mana variabel dapat ditambahkan atau dihapus pada langkah apa pun (saya pikir inilah yang SPSS sebut "bertahap"), atau mungkin merujuk pada (b) variasi ini bersama dengan yang lain variasi seperti hanya menambahkan variabel atau hanya menghapus variabel. Secara lebih luas, "bertahap" dapat digunakan untuk merujuk pada (c) prosedur apa pun di mana fitur ditambahkan atau dihapus dari model sesuai dengan beberapa nilai yang dihitung setiap kali fitur (atau serangkaian fitur) ditambahkan atau dihapus.
Strategi yang berbeda ini semuanya telah dikritik karena berbagai alasan. Saya akan mengatakan bahwa sebagian besar kritik adalah tentang (b), bagian kunci dari kritik itu adalah ituhal -nilai tidak dilengkapi dengan baik untuk pemilihan fitur (tes signifikansi di sini benar-benar menguji sesuatu yang sangat berbeda dari "haruskah saya memasukkan variabel ini dalam model?"), dan sebagian besar ahli statistik merekomendasikan untuk menentangnya dalam segala keadaan. (c) lebih kontroversial.
2) Karena pendidikan statistik sangat buruk. Untuk memberikan satu contoh saja: sejauh yang saya tahu dari pendidikan saya sendiri, itu tampaknya dianggap sebagai bagian penting dari pendidikan statistik untuk jurusan psikologi untuk memberitahu siswa untuk menggunakan koreksi Bessel untuk mendapatkan perkiraan yang tidak bias dari populasi SD. Memang benar bahwa koreksi Bessel membuat estimasi varians tidak bias, tetapi mudah untuk membuktikan bahwa estimasi SD masih bias. Lebih baik lagi, koreksi Bessel dapat meningkatkan MSE dari perkiraan ini.
3) Pemilihan variabel secara praktis adalah bidang tersendiri. Validasi silang dan pemisahan uji kereta adalah cara untuk mengevaluasi suatu model, mungkin setelah pemilihan fitur; mereka sendiri tidak memberikan saran untuk fitur mana yang digunakan. Lasso sering merupakan pilihan yang baik. Begitu juga himpunan bagian terbaik.
4) Dalam pikiran saya, masih tidak masuk akal dalam menggunakan (b), terutama ketika Anda bisa melakukan sesuatu yang lain dalam (c), seperti menggunakan AIC. Saya tidak keberatan dengan seleksi bertahap berbasis AIC, tetapi perlu diketahui bahwa itu akan sensitif terhadap sampel (khususnya, ketika sampel tumbuh besar secara sewenang-wenang, AIC, seperti laso, selalu memilih model yang paling kompleks), jadi jangan ' t menyajikan pemilihan model itu sendiri seolah-olah itu adalah kesimpulan yang dapat digeneralisasikan.
Pada akhirnya, jika Anda ingin melihat efek dari semua variabel, Anda harus memasukkan semua variabel, dan jika sampel Anda terlalu kecil untuk itu, Anda perlu sampel yang lebih besar. Ingat, hipotesis nol tidak pernah benar dalam kehidupan nyata. Ada tidak akan banyak variabel yang sedang dikaitkan dengan hasil dan sekelompok variabel lain yang tidak . Setiap variabel akan dikaitkan dengan hasil — pertanyaannya adalah sejauh mana, ke arah apa, dalam interaksi apa dengan variabel lain, dll.
sumber
Mengenai stepwise vs AIC
Stepwise adalah istilah yang menggambarkan cara urutan model dibangun dan mungkin cara model dipilih dalam urutan.
Sementara itu,
AIC dapat diterapkan untuk memilih model dari kumpulan kandidat. Ini dapat digunakan sebagai kriteria seleksi dalam seleksi bertahap, tetapi tidak hanya.
Jadi stepwise dan AIC adalah dua aspek berbeda dari pemilihan model yang dapat digunakan bersama atau secara terpisah, dan tergantung pada itu dan pada pertimbangan lain mungkin atau mungkin tidak tepat.
sumber